40 results on '"Freitas, Frederico Luiz Gonçalves de"'
Search Results
2. A Fluent Calculus approach to aid decision making in Succession Law
- Author
-
Tavares, Geová Junio Da Silva, primary, Freitas, Frederico Luiz Gonçalves de, additional, and Rodrigues, Cleyton Mário de Oliveira, additional
- Published
- 2023
- Full Text
- View/download PDF
3. Análise Automática de Feedback em Ambientes de Aprendizagem Online
- Author
-
Cavalcanti, Anderson Pinheiro, primary, Mello, Rafael Ferreira Leite de, additional, Miranda, Péricles Barbosa Cunha de, additional, and Freitas, Frederico Luiz Gonçalves de, additional
- Published
- 2020
- Full Text
- View/download PDF
4. Uma Análise entre Boas Práticas de Feedback em Ambientes Virtuais de Aprendizagem
- Author
-
Cavalcanti, Anderson Pinheiro, primary, Rolim, Vitor Belarmino, additional, Mello, Rafael Ferreira Leite de, additional, and Freitas, Frederico Luiz Gonçalves de, additional
- Published
- 2020
- Full Text
- View/download PDF
5. Um sistema autonômico baseado em ontologias e agentes inteligentes para uso em segurança da informação
- Author
-
Azevedo, Ryan Ribeiro de, Dias, Guilherme Ataíde, Freitas, Frederico Luiz Gonçalves de, Veras, Wendell Campos, and Rocha, Rodrigo
- Abstract
This paper presents an autonomic system based on ontologies and intelligent agents for use in information security, aiming to protect the computing infrastructure and information technology from malicious agents. Theoretical support for the research development was grounded on concepts from Information Science and Computer Science. The results of using the proposed system in a simulated environment are presented. A strategy for system evaluation was performed to check the system use in simulated scenarios to verify and analyze the potential of the proposed tool and its autonomic functioning in activities of information security. The evaluation consisted in the execution of denial of service attacks (DoS) and SYN Flooding. The AutoCore achieved the desired objectives. The results show that the AutoCore is a suitable tool for the treatment and utilization of information with regard to information security, enabling those responsible for Risk Management and Information Security Management to make strategic decisions alignment of Information and Communication Technologies Security with the business processes of organizations. Este artigo apresenta um sistema autonômico baseado em ontologias e agentes inteligentes para uso em Segurança da Informação, tendo como intuito resguardar a infraestrutura computacional e de tecnologia da informação protegidas de agentes maliciosos. Como suporte teórico para o desenvolvimento da pesquisa utilizou-se de conceitos da Ciência da Informação e Ciência da Computação. São apresentados resultados do uso do sistema proposto em ambiente simulado. Como estratégia de avaliação do sistema, foi realizada uma avaliação do uso do sistema em cenários simulados com intuito de verificar e analisar o potencial da ferramenta proposta e seu funcionamento autonômico nas atividades de segurança da informação. A avaliação consistiu da aplicação de ataques de negação de serviço (DoS - Denial of Service) e SYN Flooding. O AutoCore atingiu os objetivos desejados, os resultados apresentados demonstram que o AutoCore é uma ferramenta adequada para o tratamento e utilização da informação no que diz respeito à segurança da informação, possibilitando aos responsáveis pela Gestão de Riscos e Gestão de Segurança da Informação tomarem decisões estratégicas de alinhamento das Tecnologias de Informação e Comunicação e Segurança aos processos de negócios das organizações.
- Published
- 2012
6. Modelo fuzzy para recuperação de informação utilizando multiplas ontologias relacionadas
- Author
-
Leite, Maria Angelica de Andrade, Ricarte, Ivan Luiz Marques, 1962, Freitas, Frederico Luiz Gonçalves de, Souza, Kleber Xavier Sampaio de, Magalhães, Léo Pini, Gomide, Fernando Antonio Campos, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Query expansion ,Fuzzy information retrieval ,Knowledge representation ,Ontology ,Recuperação da informação ,Sistemas fuzzy ,Representação do conhecimento (Teoria da informação) ,Ontologia - Abstract
Orientador: Ivan Luiz Marques Ricarte Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação Resumo: Com a crescente popularidade da World Wide Web mais pessoas têm acesso à informação cujo volume vem expandindo ao longo do tempo. A área de recuperação de informação ganhou um novo desafio visando buscar os recursos pelo significado da informação neles contida. Uma forma de recuperar a informação, pelo seu significado, é pelo uso de uma base de conhecimento que modela os conceitos de um domínio e seus relacionamentos. Atualmente, ontologias têm sido utilizadas para modelar bases de conhecimento. Para tratar com a imprecisão e a incerteza, presentes no conhecimento e no processo de recuperação de informação, são empregadas técnicas da teoria de conjuntos fuzzy. Trabalhos precedentes codificam a base de conhecimento utilizando apenas uma ontologia. Entretanto, uma coleção de documentos pode tratar temas pertencentes a domínios diferentes, expressos por ontologias distintas, que podem estar relacionados. Neste trabalho, uma forma de organização e representação do conhecimento em múltiplas ontologias relacionadas foi investigada e um novo método de expansão de consulta foi desenvolvido. A organização do conhecimento e o método de expansão de consulta foram integrados no modelo fuzzy para recuperação de informação utilizando múltiplas ontologias relacionadas. O desempenho do modelo foi comparado com outro modelo fuzzy para recuperação de informação e com a máquina de busca Lucene do projeto Apache. Em ambos os casos o modelo proposto apresentou uma melhora nas medidas de precisão e cobertura. Abstract: With the World Wide Web popularity growth, more people has access to information and this information volume is expanding over the time. The information retrieval area has a new challenge intending to search information resources by their meaning. A way to retrieve information, by its meaning, is by using a knowledge base that encodes the domain concepts and their relationships. Nowadays ontologies are being used to model knowledge bases. To deal with imprecison and uncertainty present in the knowledge and in the information retrieval process, fuzzy set theory techniques are employed. Preceding works encode a knowledge base using just one ontology. However a document collection can deal with different domain themes, expressed by distinct ontologies, that can be related. In this work a way of knowledge organization and representation, using multiple related ontologies, was investigated and a new method of query expansion was developed. The knowledge organization and the query expansion method were integrated in the fuzzy model for information retrieval based on mutiple related ontologies. The model performance was compared with another fuzzy-based approach for information retrieval and with the Apache Lucene search engine. In both cases the proposed model improves the precision and recall measures. Doutorado Engenharia de Computação Doutor em Engenharia Elétrica
- Published
- 2021
- Full Text
- View/download PDF
7. A solution for goal-oriented policy refinement in NFV manegement and orchestration systems
- Author
-
BONFIM, Michel Sales, FERNANDES, Stênio Flávio de Lacerda, and FREITAS, Frederico Luiz Gonçalves de
- Subjects
Redes de computadores ,Ontologia - Abstract
Some studies are tackling the integration of Network Function Virtualization (NFV) and Software-Defined Networking (SDN) in different environments (e.g., Cloud Computing and Wide Area Network). The use of NFV technology, along with SDN, will play a significant role in 5G networks, since they allow the network programmability and the fast delivery of new services. Although NFV/SDN architectures have clear potential benefits, they are still at an early stage of development. One of the main challenges is the definition of high-level policies necessary to simplify the configuration of NFV Management and Orchestration (NFV-MANO) operations, such as resource allocation and optimization mechanisms, and to meet the customers’ requirements. In this thesis, we intend to tackle part of this problem, namely, issues in the policy refinement procedures. We present the problem for the creation of a policy refinement procedure for NFV systems, as well as the requirements that we consider necessary for their composition. In this sense, we point out the need to have an approach that provides a functional solution for automated policy refinement in policy-based NFV management and orchestration systems. Such a method must support several features such as goal-oriented refinement and detection and resolution of policy conflicts. In this context, we propose the AuTomated POlicy Refinement SysteM for NFV (ATOM), an automated solution for the policy refinement process for Policy-Based Management Systems (PBM) in NFV scenarios (NFV-PBM). To achieve its goal, the ATOM comprises 3 functional blocks: NSChecker, NSPlanner, and Feedback Module. The NSChecker is a semantic verification system to find inconsistencies among policies defined in NS Request (NS-Req) and global policies previously created in the NFVI, i.e., application-specific policies. The NSPlanner provides a solution that enables NFV-MANO to record high-level goals extracted from Network Service Descriptor (NSD) and perform a fully automated policy refinement, that derives enforceable policies (Event-Condition-Action or ECA rules) to govern NFV-MANO behavioral choices while satisfying the goals. Besides, NSPlanner performs policy analysis between management-specific policies, i.e., rules that will be generated by the refinement process and stored in NFV-PBM to govern system behavior. Finally, the Feedback Module is a monitoring system that aims to assist the operator in the task of verifying if the enforceable policies are fulfilling the high-level goals. We conducted a performance evaluation of both NSChecker and NSPlanner. The results demonstrate that NSChecker is efficient even in scenarios with 50,000 NFV Infrastructure Nodes (NFVI-Nodes), while NSPlanner is efficient even in scenarios with 1000 goals and 1000 alarms pre-registered. Diversos estudos estão lidando com a integração das tecnologias Network Function Virtualization (NFV) e Software-Defined Networking (SDN) em diferentes ambientes. O uso da tecnologia NFV, juntamente com SDN, terá uma função significante nas redes 5G, desde que elas permitem a programabilidade da rede e a rápida entrega de novos serviços. Embora as arquiteturas NFV/SDN tenham claros benefícios, elas ainda estão em um estágio inicial de desenvolvimento. Um dos principais desafios consiste na definição de políticas de alto nível para simplificar a configuração do NFV Management and Orchestration (NFV-MANO), tal como a alocação de recursos e a otimização de mecanismos. Nesta Tese, nós atacamos esse problema, conhecido como refinamento de políticas. Nós apresentamos o problema para a criação do procedimento de refinamento de políticas para NFV, bem como os requisitos que nós consideramos necessários para a sua composição. Neste sentido, nós apontamos a necessidade de se ter uma abordagem que proponha uma solução funcional para o refinamento de políticas automatizado para o NFV-MANO. Tal método deve suportar diversas ferramentas, tais como refinamento orientado à objetivos e a detecção e resolução de conflito entre políticas. Neste contexto, nós propomos o AuTomated POlicy Refinement SysteM for NFV (ATOM), uma solução automatizada para o processo de refinamento de políticas para Policy-Based Management Systems (PBM) em NFV (NFV-PBM). Para alcançar este objetivo, o ATOM é composto por 3 blocos funcionais: NSChecker, NSPlanner e Feedback Module. O NSChecker é um sistema de verificação semântica para encontrar possíveis inconsistências entre políticas definidas no NS Request (NS-Req) e políticas globais previamente criadas no NFVI, ou seja, políticas da aplicação. O NSPlanner provê uma solução que habilita o NFVMANO a registrar objetivos de alto nível, extraídos do Network Service Descriptor (NSD), e realizar o refinamento de políticas. Neste caso, ele deriva políticas executáveis (regras Event-Condition-Action ou ECA) para governar o comportamento do NFV-MANO enquanto satisfaz os objetivos. Além disso, o NSPlanner realiza a análise de políticas entre políticas de gerenciamento, ou seja, regras que foram geradas pelo processo de refinamento e armazenadas no NFV-PBM para governar o comportamento do sistema. Finalmente, o Feedback Module é um sistema de monitoramento que tem por objetivo auxiliar o operador na tarefa de verificar se as políticas executáveis estão satisfazendo os objetivos de alto nível. Nós conduzimos uma avaliação de desempenho tanto do NSChecker como do NSPlanner. Os resultados demonstraram que o NSChecker é eficiente mesmo em cenários com 50.000 NFV Infrastructure Nodes (NFVI-Nodes), enquanto o NSPlanner é eficiente m cenários com 1000 objetivos e 1000 alarmes previamente cadastrados.
- Published
- 2020
8. Arandu, um Chatbot para construção de ontologias guiado por uma ontologia de topo
- Author
-
COSTA, Adriano Ferraz da and FREITAS, Frederico Luiz Gonçalves de
- Subjects
Ontologia ,Inteligência computacional - Abstract
Com a grande quantidade de informações atualmente disponíveis na Web, representar conhecimento de maneira semântica e formal torna-se uma tarefa essencial para a comunicação entre sistemas. Ontologias fornecem uma maneira reutilizável de construírem bases de conhecimento. Ontologias permitem a construção de axiomas lógicos que são capazes de raciocinar e inferir novos fatos. No entanto, a construção de ontologias ainda é uma tarefa desafiadora, devido à necessidade de especialistas de domínio aprenderem uma linguagem formal, bem como reutilizar definições de ontologias de uso geral, conhecidas como ontologias de topo. O reuso de ontologias, principalmente as de topo, garante o uso de termos que são consenso entre a comunidade do domínio representado, além de dar maior qualidade e robustez a ontologia que está sendo criada. Porém, somente adicionar termos de outra ontologia não necessariamente garantirá coerência no modelo que foi expandido, fazer isso sem a validação de um especialista pode acarretar a inclusão de termos que não fazem sentido para o domínio representado. Este trabalho propõe uma metodologia para construção de ontologias por meio de um Chatbot, chamado de Arandu. Diferente de outras metodologias, Arandu guia o usuário no processo de construção de uma ontologia, sugere classes advindas de uma ontologia de topo, sugere quantificadores lógicos, raciocina novos fatos e informa inconsistências lógicas. Através de técnicas de Processamento de Linguagem Natural (PLN), Arandu converte sentenças informadas pelo usuário em linguagem natural para axiomas lógicos formalizados em linguagem OWL. Arandu permite que o especialista de domínio valide quais classes devem ser reutilizadas, eliminando ambiguidades ou incoerência de classes sugeridas. Reutilizar conhecimento de uma ontologia de topo não é uma tarefa trivial e não compõe técnicas de construção automática de ontologias a partir de textos, essa característica traz originalidade e se destaca como principal avanço científico desta tese. Os resultados obtidos com testes realizados com usuários, apontam que Arandu contribui para que especialistas de domínio, com pouco conhecimento técnico sobre ontologias, construa uma ontologia utilizando linguagem natural e reutilize conhecimento de uma ontologia de topo. Por meio do paradigma de pesquisa Design Science Research (DSR), validamos o artefato tecnológico desenvolvido e concluímos que Arandu converte sentenças informadas pelo usuário em linguagem natural para axiomas lógicos e sugere definições provenientes de uma ontologia de nível superior, o que permite a criação de ontologias em linguagem OWL por meio de diálogos, expandindo o modelo esperado. With a large amount of information currently available on the Web, representing knowledge semantically and formally becomes an essential task for communication between systems. Ontologies provide a reusable way to build knowledge bases. Ontologies allow the construction of logical axioms that are capable of reasoning and inferring new facts. However, the creation of ontologies is still a challenging task, due to the need for domain experts to learn a formal language, as well as to reuse definitions of generalpurpose ontologies, known as top ontologies. The reuse of ontologies, especially the top ones, guarantees the use of terms that are consensus among the community of the represented domain, in addition to giving higher quality and robustness to the ontology that creates. However, just adding terms from another ontology will not necessarily guarantee coherence in the model that has expanded, doing so without the validation of a specialist can lead to the inclusion of terms that do not make sense for the domain represented. This work proposes a methodology for building ontologies using a Chatbot, called Arandu. Unlike other methodologies, Arandu guides the user in the process of building an ontology, suggests classes from a top ontology, suggests logical quantifiers, reasons new facts, and reports logical inconsistencies. Through Natural Language Processing (PLN) techniques, Arandu converts user-informed sentences into natural language for formalized logical axioms in OWL language. Arandu allows the domain specialist to validate which classes should reuse, eliminating ambiguities or inconsistencies of suggested classes. Reusing knowledge of a top ontology is not a trivial task and does not compose techniques of automatic construction of ontologies from texts; this characteristic brings originality. It stands out as the main scientific advance of this thesis. The results obtained with tests carried out with users, point out that Arandu contributes so that domain experts, with little technical knowledge about ontologies, build an ontology using natural language and reuse knowledge from a top ontology. Using the Design Science Research (DSR) research paradigm, we validate the technological artifact developed and conclude that Arandu converts user-informed sentences into natural language into logical axioms and suggests definitions from a higher-level ontology, which allows the creation of ontologies in OWL language by through dialogues, expanding the expected model.
- Published
- 2020
9. An inference engine for identity relations in knowledge graphs
- Author
-
Alcantara, Williams Lourenço de, Costa, Evandro de Barros, Brito, Patrick Henrique da Silva, Freitas, Frederico Luiz Gonçalves de, and Perkusich, Mirko Barbosa
- Subjects
Knowledge graph ,Inference ,Grafos de ligação ,Identity relationship ,Inferência estatística ,CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO [CNPQ] ,Web semântica ,Attribute selection - Abstract
The growing demand for realtime information access requires high cost – financial and computational – for data integration due to lack of standardization, resulting in problems during modeling and display data. The Knowledge Graphs were used to deal these problems. By providing a structured, scalable and understandable machine model, the creation and maintenance are vulnerable to errors due to automatic reasoning difficulties in large data from different domains – which can produce inaccurate, erroneous or incomplete results – mainly related with ambiguity. The problems are normally caused by ambiguous relationships and by inaccuracy in determining Identity Relations (IR) in a domain. Recent studies compare all attributes without considering that some of them can be more relevant. This work applied an automatic IR detection mechanism which execute an automatic selection of relevant attributes for a domain from entropy analysis and statistical correlation between the attributes. The proposed solution was applied in 12 real datasets that include software development activities. The characters which were automatically selected obtained better IR detection accuracy than the criteria recommended by a domain expert. CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior A crescente demanda por acesso a informações em tempo real tem demandado um alto custo – financeiro e computacional – para a integração de dados devido à ausência de padronização, o que normalmente resulta em problemas durante a modelagem e representação de dados. Grafos de Conhecimento (GC) tem sido um dos mecanismos utilizados para abordar tais problemas. Apesar de fornecerem um modelo estruturado, escalável e compreensível por máquina, a sua criação e manutenção são vulneráveis a erros em razão da dificuldade de raciocínio automático em um grande volume de dados de diferentes domínios – que pode gerar resultados imprecisos, errados ou incompletos – principalmente relacionados à ambiguidade. Normalmente, os problemas causados pela ocorrência de relações ambíguas são derivados da imprecisão ao determinar uma Relação de Identidade (IR) em um domínio, pois os trabalhos existentes na literatura realizam comparação de todos os atributos sem considerar que alguns podem ser mais relevantes. Assim, este trabalho propõe um mecanismo automático para detecção de IR capaz de realizar seleção automática de atributos relevantes de um domínio a partir de análises de entropia e correlação estatística entre os atributos. A solução proposta foi aplicada em 12 conjuntos de dados reais que contém atividades de desenvolvimento de software, sendo que os atributos selecionados automaticamente obtiveram melhor acurácia na detecção de IR do que os atributos relevantes definidos por um especialista do domínio.
- Published
- 2019
10. Structural validation of Enhanced Entity-Relationship models using description logic reasoners
- Author
-
SILVA, Estela Domingues Nunes da, FIDALGO, Robson do Nascimento, and FREITAS, Frederico Luiz Gonçalves de
- Subjects
Validação de modelos conceituais ,Banco de dados - Abstract
The Enhanced Entity-Relationship (EER) language is widely used in the creation of conceptual database models. The validation of these models is critical as validity erros can be passed to the next phases of the project and negatively influence the outcome. In large and complex models, validation becomes a difficult task because the interaction between the elements used can produce inconsistencies and unintended implicit consequences. Hence, it is essential to offer automatic assistance. Description Logics (DLs) are a set of languages used for knowledge representation. They admit decidable and automated reasoning tasks, such as the identification of implicit logical consequences. Because of those characteristics, DLs have been considered a promising alternative to represent and reason on conceptual models. This work aims to support the validation of conceptual database models by identifying syntactic and semantic inconsistencies in EER models using DL reasoners. To the best of our knowledge, few work use Description Logics to represent and reason on EER models. Also, these work do not cover aspects such as the interaction between model constraints and the related structural consequences. Our work stands out for taking into account the consequences of constraints such as cardinality, participation, relationship type degree, inheritance, cyclic paths, and valid attribute types, as well as the consequences of the interactions between these constraints on the same model. With the support of Protégé, we built a Knowledge Base(KB) in OWL DL by formalizing the EER syntax. Next, we added the semantic validity rules related to the constraints mentioned. Although we tried to represent most of the rules by using axioms, we also made use of Semantic Web Rule Language (SWRL) rules in cases in which DL expressivity was not sufficient. Finally, we manually converted the KB to ALCROIQ language. As proof of concept, we successfully validated case studies by using DL reasoners. A linguagem Entidade-Relacionamento Estendido (EER) é amplamente utilizada na criação de modelos conceituais de banco de dados. A validação desses modelos é crítica, pois os erros de validação podem ser passados para as próximas fases do projeto e influenciar negativamente o resultado final. Em modelos grandes e complexos, a validação torna-se uma tarefa difícil porque a interação entre os elementos utilizados pode produzir inconsistências e consequências implícitas não intencionais. Por isso, é essencial oferecer assistência automática. A Lógica de Descrição (DL) é um conjunto de linguagens utilizadas para representação de conhecimento. Ela admite tarefas de raciocínio decidíveis e automatizadas, como a identificação de consequências lógicas implícitas. Por causa dessas características, a DL tem sido considerada uma alternativa promissora para representar e raciocinar em modelos conceituais. Este trabalho tem como objetivo apoiar a validação de modelos conceituais de banco de dados, identificando inconsistências de sintaxe e semântica em modelos EER utilizando racionalizadores de DL. De acordo com as pesquisas realizadas, poucos trabalhos usam Lógica de Descrição para representar e raciocinar sobre modelos EER. Além disso, esses trabalhos não abordam aspectos como a interação entre as restrições da linguagem em um mesmo modelo e suas consequências estruturais. Nosso trabalho se destaca por levar em consideração as conseqüências de restrições como cardinalidade, participação, grau do tipo de relacionamento, herança, caminhos cíclicos e tipos de atributos válidos, bem como as conseqüências das interações entre essas restrições. Com o apoio da ferramenta Protégé, construímos uma Base de Conhecimento (BC) em OWL DL, formalizando a sintaxe da linguagem EER. Em seguida, adicionamos as regras de validação semântica relacionadas às restrições mencionadas. Embora a maioria das regras tenham sido representadas por meio de axiomas, também utilizamos regras SWRL (Semantic Web Rule Language) em casos nos quais a expressividade de DL não era adequada. Ao final, convertemos manualmente a BC para a linguagem ALCROIQ. Como prova de conceito, validamos com sucesso estudos de caso utilizando raciocinadores DL.
- Published
- 2019
11. Uma abordagem ontológica para simulação de indenização por dano em ações cíveis
- Author
-
SOUZA, Jean Elder Araújo, FREITAS, Frederico Luiz Gonçalves de, and RODRIGUES, Cleyton Mário de Oliveira
- Subjects
Dano cível ,Inteligência artificial ,Ontologia - Abstract
A Constituição Federal, no artigo 5º, estabelece a inviolabilidade do direito à vida, à liberdade, à igualdade, à segurança e à propriedade. No inciso V do referido artigo, a Carta Magna assegura a indenização pelo dano cível decorrente da violação dos citados direitos. Nesse contexto, o desenvolvimento da ontologia OntoDano, permite, através da abordagem ontológica e do formalismo da Lógica de Descrições, em cenários de menor complexidade resolutiva, verificar se o caso em análise corresponde ao Dano Cível Indenizável. A representação do Dano Cível e sua Indenização materializada na ontologia OntoDano está baseada na Web Semântica, que corresponde ao conjunto de esforços para atribuir significado ao conteúdo da Web. Esse fato é de fundamental importância, já que a prática jurídica brasileira tem convergido para o processamento de litígios por meio eletrônico, com o consequente abandono progressivo das ações processadas fisicamente. Impende destacar que o Conselho Nacional de Justiça patrocina o desenvolvimento do PJe (Processo Judicial Eletrônico), sistema de tramitação de processos judiciais cujo objetivo é atender às necessidades dos diversos órgãos do Poder Judiciário Brasileiro. O referido sistema é baseado em Web, o que converge com a tecnologia da Web Semântica utilizada na OntoDano. Essa situação de convergência associada a apresentação dos resultados das inferências realizadas com a OntoDano em cenários de casos concretos no âmbito do direito civil, apontam para a possibilidade futura da aplicação dos resultados deste trabalho na prática forense. De tal arte, o trabalho desenvolvido expõe uma janela de oportunidade de relevante impacto social, na medida em que, a utilização dos resultados desse trabalho, repise-se, poderá auxiliar na redução do lapso temporal para o desfecho processual, imprimindo, assim, celeridade na entrega da prestação jurisdicional aos interessados. The Federal Constitution, in Article 5, establishes the inviolability of the right to life, liberty, equality, security and property. In item V of the aforementioned article, the Magna Carta guarantees compensation for civil damages arising from the violation of the aforementioned rights. In this context, the development of OntoDano ontology allows, through the ontological approach and formalism of the Description Logic, in scenarios of less complex resolution, to verify if the case under consideration corresponds to Indemnifiable Civil Damage. The representation of Civil Damage and its Indemnity materialized in OntoDano ontology is based on the Semantic Web, which corresponds to the set of efforts to assign meaning to the Web content. This fact is of fundamental importance, since the Brazilian legal practice has converged to the processing. electronic litigation, with the consequent progressive abandonment of physically processed actions. It is important to highlight that the National Council of Justice sponsors the development of the PJe (Electronic Judicial Process), a system of legal proceedings that aims to meet the needs of the various organs of the Brazilian Judiciary. This system is web based, which converges with the Semantic Web technology used in OntoDano. This convergence situation associated with the presentation of the results of the inferences made with OntoDano in concrete civil law case scenarios, points to the future possibility of applying the results of this work in forensic practice. From this art, the developed work exposes a window of opportunity of relevant social impact, since the use of the results of this work, it should be noted, may help to reduce the time lapse for the procedural outcome, thus, speeding up delivery of the court benefit to the parties concerned.
- Published
- 2019
12. Implementação de conversão de provas ALC para o cálculo de sequentes
- Author
-
SILVA, Allison Magno Eugênio da, FREITAS, Frederico Luiz Gonçalves de, and SILVA, Eunice Palmeira da
- Subjects
Lógica de descrições ,Inteligência computacional - Abstract
CAPES Em raciocínio automático, os usuários necessitam usar os sistemas de inferência não apenas para entender a conclusão resultante desse raciocínio, mas, também para saber como os sistemas chegaram naquelas conclusões, grande parte da legibilidade da prova é perdida para usuários que não possuem o domínio da lógica. O Método de Conexões realiza provas que são consideradas de difícil compreensão, pois, a matriz de prova gerada por esse método possui várias conexões que unem fórmulas atômicas complementares que são verificadas ao percorrer os caminhos da matriz. Este trabalho apresenta uma implementação do método de conversão das provas em ℒ geradas pelo método das conexões para um sistema de sequentes ℒ, formalizado por Palmeira (2017). No processo de implementação, são codificadas as etapas propostas na formalização para gerar a prova no cálculo de sequentes em ℒ. Com esse processo de conversão, é possível deixar a prova mais legível para usuários comuns, que podem ser detentores do conhecimento do domínio, apenas. O método implementado neste trabalho recebe a fórmula ℒ, a correspondente prova de conexões em formato não-clausal e as suas conexões. Uma prova no Cálculo de Sequentes ℒ vai sendo construída e, por fim, é gerada a saída com a prova completa em sequentes. A expressividade da lógica de descrições ℒ é unida ao bom desempenho dos provadores automáticos de teorema, proporcionando uma saída mais amigável e compreensível do raciocínio automático. In automatic reasoning, users need to use inference systems not only to understand the resultant conclusion of that reasoning, but also to know how the systems came to those conclusions, much of the proof readability is lost to users who do not have the domain of logic. The Connections Method performs tests that are considered difficult to understand because the proof matrix generated by this method has several connections that join complementary atomic formulas that are verified by traversing the paths of the matrix. This paper presents an implementation of the method of converting the ℒ proofs generated by the connections method to a ℒ string system, formalized by ??). In the implementation process, the proposed formalization steps are coded to generate the ℒ sequence calculation test. With this conversion process, you can make the proof more readable to ordinary users, who may have domain knowledge only. The method implemented in this paper receives the formula ℒ, the corresponding proof of non-clause connections and their connections. A Sequence Calculation test ℒ is being built and, finally, the output with the complete sequence test is generated. The expressiveness of the ℒ description logic is coupled with the good performance of automatic theorem provers, providing a little more friendly and understandable output of automatic reasoning.
- Published
- 2019
13. Chatterbot para criação e refinamento de ontologias em lógica de descrições
- Author
-
SILVA, Israel Felipe de Lima Araújo, FREITAS, Frederico Luiz Gonçalves de, and AZEVEDO, Ryan Ribeiro de
- Subjects
Inteligência artificial ,Ontologias ,Lógica de Descrições - Abstract
FACEPE Ontologias são especificações explícitas de conceitualizações compartilhadas, e constituem valiosos recursos que fornecem um modelo representativo de domínio de conhecimento reutilizável por diversas aplicações nas áreas de Engenharia do Conhecimento, Processamento de Linguagem Natural, Bioinformática, Sistemas de Recomendação (SR), entre outros. Deste modo, novas tecnologias, métodos e ferramentas capazes de lidar com os desafios técnicos e econômicos inerentes à construção de Ontologias e com o objetivo de minimizar o esforço manual e altamente especializado requerido se mostram necessárias. Neste trabalho o objetivo foi desenvolver um chatterbot inteligente para construção e refinamento de bases de conhecimento. Bases estas, modeladas como ontologias em OWL 2 DL a partir de linguagem natural. Assim construir uma ferramenta de autoria com capacidade de realizar raciocínio de inconsistência e subsunção/definição por meio de diálogos com os usuários. Os resultados alcançados demonstram que nosso chatterbot é capaz de (I) Modelar corretamente conhecimento em ontologias com no máximo expressividade ℒℋ (Attributive Language with Complements, Role hierarchy, Nominals and Qualified cardinality restrictions) advindo dos diálogos com os usuários; (II) Capaz de realizar raciocínio de inconsistência e subsunção em tempo de execução. Nosso chatterbot, pode contribuir para facilitar o processo de desenvolvimento de ontologias expressivas a partir de Linguagem Natural. Além disso conta com o diferencial em utilizar técnicas de Aprendizado de Máquina que o torna uma ferramenta de Autoria capacitada para extrair e checar eficientemente conhecimento do texto. Ainda permite a checagem de novos fatos através da ontologia de topo SUMO, fornecendo, dessa forma, uma modelagem mais precisa e semanticamente correta. Ontologies are explicit specifications of shared conceptualizations. They constitute valuable resources that provide a representative model of a reusable knowledge domain by several applications in different areas such as Knowledge Engineering, Natural Language Processing, Bioinformatics, among others. This way, new technologies, methods and tools capable of dealing with the technical and economic challenges inherent to the construction of ontologies and with the objective of minimizing the manual and highly specialized effort required are shown to be necessary. Our objective is to develop an intelligent chatterbot for building and refining knowledge bases modeled as ontologies. Knowledge bases modeled from natural language dialogs. Also provides a tool with the ability to carry out inconsistency and subsumption/definition reasoning. The results obtained demonstrate that our chatterbot is able to (I) correctly model knowledge in ontologies with max ℒℋ (Attributive Language with Complements, Role hierarchy, Nominals and Qualified cardinality restrictions) expressivity resulting from dialogues with users; (II) Able to carry out reasoning of inconsistency and subsumption at run time. Our chatterbot can contribute to facilitate the process of development of expressive ontologies from Natural Language. It also has the advantage of using Machine Learning techniques that make it a Smart Authoring tool capable of extracting and checking text knowledge more effectively. It also allows for the checking of new facts through the top SUMO Ontology, thus providing a more accurate and semantically correct modeling.
- Published
- 2019
14. Uma abordagem de modularização de ontologias baseada na satisfação lógica de questões de competência
- Author
-
SILVA, Camila Bezerra da and FREITAS, Frederico Luiz Gonçalves de
- Subjects
Questões de competências ,Modularização de ontologias ,Inteligência computacional - Abstract
SILVA, Camila Bezerra da, também é conhecido(a) em citações bibliográficas por: Bezerra, Camila CAPES Existem várias abordagens propostas para modularização, porém a questão de inconsistência lógica entre módulos é pouco explorada. De fato, a inconsistência pode ser resultado de questões de competência inconsistentes, algo nunca explorado na literatura. As QCs são fundamentais para o desenvolvimento de ontologias, já que representam os requisitos de uma ontologia. A proposta deste trabalho é justamente explorar essa lacuna através de uma abordagem para implementação de modularização de ontologias e checagem de consistência utilizando questões de competência. A vantagem principal desse tipo de abordagem é justamente prover checagem de consistência entre QCs, mesmo que estejam em módulos diferentes. Isso é possível quando partimos da fase inicial do desenvolvimento de ontologias, ou seja, quando só existem as QCs e ainda não há a ontologia. No caso, as QCs são modularizadas e a consistência, entre elas, é verificada. Este trabalho provê principalmente as seguintes contribuições: (1) Permitir um melhor entendimento das QCs, especialmente em ontologias muito grandes, e o reuso, por meio da modularização; e (2) Checar inconsistências entre QCs durante o início do desenvolvimento, consequentemente, entre módulos, poupando tempo e trabalho nas fases posteriores. There are several approaches proposed for modularization, but the question of inconsistency between modules is little explored. In fact inconsistencies may be due to inconsistency of competence questions, something that has never been explored in the literature. The Competency Questions(CQs) are fundamental to the development of ontologies, as they represent the requirements of an ontology. The purpose of this thesis is to exploit that gap, by developing an approach and implementation of ontology modularization using competency questions. The main advantage of this approach is precisely to provide consistency checking among competency questions, even if they are in different modules. The approach applies in situations in which starting from the scratch, i.e., there are only the competency questions, and there is no ontology yet. In this case competency questions are modularized and consistency among them checked. This work mainly provides the following contributions: (1) To allow a better understanding of the competency questions, especially in large ontologies, and the reuse, by modularization; and (2) Check inconsistencies among CQs during the development, saving time and effort in the later stages.
- Published
- 2019
15. Uma abordagem ontológica para simulação de ação legal e consistência semântica aplicada à legislação brasileira
- Author
-
RODRIGUES, Cleyton Mário de Oliveira and FREITAS, Frederico Luiz Gonçalves de
- Subjects
Web semântica ,Inteligência artificial ,Ontologias - Abstract
A Web Semântica surgiu da necessidade de se atribuir significado aos conteúdos disponibilizados na web, de forma que, não apenas o ser humano como também as máquinas/computadores possam processar e compreender tais recursos. Ela fomenta, portanto, uma nova infraestrutura onde programas e dispositivos podem trocar informação de forma inteligente e automatizada, produzindo uma “Web de Conhecimentos”. A Web Semântica tem produzido serviços mais sofisticados, com aplicabilidade em várias áreas. Notadamente, o ritmo acelerado que dita as mudanças organizacionais na administração pública, a harmonização jurídica, a necessidade de formalizar e automatizar processos que envolvem ações do Direito e o aumento considerável do corpus jurídico têm atraído atenção para a representação do Conhecimento Jurídico, bem como a criação de sistemas que possam raciocinar neste domínio. Esta tese, portanto, analisa as nuances em nível ontológico para formalização do conhecimento Jurídico-Normativo Brasileiro, explorando uma área conhecida como Computação Jurídica. No âmbito da Legislação Brasileira, contudo, destacam-se problemas semânticos tanto de ordem linguística, quanto conceitual. Para o primeiro caso, a ambiguidade inerente da linguagem natural tem acarretado a produção de documentos sujeitos à múltiplas interpretações. Adicionalmente, a linguagem retórica e rebuscada comumente utilizada na redação das leis tem levado à subespecificação das regras e conceitos e, consequentemente, a inconsistências, modelagens imprecisas, e desacordos. Este projeto visa, portanto, a partir dos padrões abertos da Web Semântica (o formalismo Description Logic (DL) e a linguagem Ontology Web Language (OWL)), definir uma abordagem ontológica para modelar uma parte do Direito Penal Brasileiro, em especial, a Teoria Geral do Crime. Assim, é possível construir sistemas baseado no conhecimento jurídico-normativo, capazes de raciocinar e apoiar a tomada de decisão, amenizando potenciais anomalias sintáticas e semânticas. Esta tese ainda preocupou-se em investigar os limites da lógica clássica (base da DL) em modelar o conhecimento jurídico-normativo, e como uma lógica não-monotônica pode ser utilizada para resolver possíveis conflitos entre as leis. Assim, através das Ontologias construídas e de um protótipo desenvolvido, destacamos simulações de ações jurídicas em cenários reais, extraindo as diferentes interpretações das lei, com suas violações e penas impostas. Como contribuições deste projeto, assinalamos o avanço no uso de ontologias logicamente formalizadas para a representação não-ambígua e compartilhada do conhecimento jurídico, favorecendo a transparência e maior efetividade da aplicação das leis. Esta tese contribui também para diminuir o abismo ainda existente entre o uso das tecnologias e sistemas jurídicos. The SemanticWeb has emerged from the need to assign meaning to the contents made available on the web, so that, not only the human being but also the machines/ computers can process and understand such resources. It provides, therefore, a new infrastructure where programs and devices can exchange information in an intelligent and automated way, producing a “Web of Knowledge”. The Semantic Web has produced sophisticated services, with applicability in several areas. Notably, the rapid pace of organizational changes in public administration, the legal harmonization, the need to formalize and automate processes that involve a lawsuit, and the considerable increase in the legal corpus have attracted attention to the representation of Legal Knowledge, as well as the creation of systems that can reason in this field. This thesis, therefore, analyzes the nuances at the ontological level to formalize Brazilian Legal and Normative Knowledge, exploring an area known as Legal Computing. In the scope of Brazilian legislation, however, we can highlight semantic problems of linguistic as well as conceptual type. For the former case, the inherent ambiguity of natural language has led to the production of documents subject to multiple interpretations. In addition, the rhetorical and fancy language commonly used in law has led to the sub-specification of rules and concepts and, consequently, to inconsistencies, inaccurate modeling, and disagreements. This project aims, based on Semantic Web standards (the Description Logic formalism (DL) and the Ontology Web Language (OWL)), to define an ontological approach to model a portion of the Brazilian Criminal Law, in particular, the General Theory of Crime. Thus, it is possible to build systems based on legal-normative knowledge, capable of reasoning and supporting decision-making, mitigating potential syntactic and semantic anomalies. This thesis was still concerned with investigating the limits of classical logic (DL basis) in legal-normative knowledge, and how a non-monotonic logic can be used to resolve possible conflicts between laws. Thus, through the engineered Ontologies and a prototype developed, we highlight simulations of legal actions in real scenarios, extracting the different interpretations of the law, with their violations and penalties imposed. As contributions of this project, we highlight the theoretical and practical advance in the use of logically formalized ontologies for non-ambiguous and shared representation of legal knowledge, favoring transparency and greater effectiveness of the of laws. This thesis also helps to reduce the gap between technologies and legal systems.
- Published
- 2019
16. CoreACQ: um framework computacional para validar questões de competência por raciocínio automático sobre a ontologia SUMO
- Author
-
OLIVEIRA, Diogo Espinhara, FREITAS, Frederico Luiz Gonçalves de, and AZEVEDO, Ryan Ribeiro de
- Subjects
Raciocínio automático ,Inteligência artificial ,Ontologia - Abstract
CNPq Abordagens baseadas em Questões de Competência (CQ, Competency Question), que permitem especificar os requisitos de uma base de conhecimento na forma de consultas, usadas para a avaliação de ontologias, são bastante utilizadas em ferramentas encontradas na área da Engenharia de Ontologias. Um engenheiro de ontologias deve verificar a sua ontologia de acordo com a especificação de seu projeto, para isso, pode definir um conjunto de CQs que deve ser inferido - isto é, confirmado por raciocínio automático - pela ontologia e, no caso de informações inconsistentes ou incompletas, precisa corrigir os problemas encontrados. Atualmente existem ferramentas capazes de apoiar o processo de avaliação de ontologias através de recursos para facilitar e automatizar a verificação (ou validação) de CQs, entretanto, ainda necessitam de muita intervenção humana para solucionar as falhas no desenvolvimento das ontologias. Este quadro situacional leva nossa exploração a meios de possibilitar que ferramentas possam evoluir uma ontologia de forma automática, fazendo uso de fontes de informações confiáveis e gratuitas como, por exemplo, a Ontologia de Topo SUMO. Desenvolvemos o CoreACQ, um framework computacional, projetado para validar CQs por raciocínio automático sobre a SUMO. Nossa solução consiste em uma solução viável para o problema de ontologias de domínio incompletas - as quais falham no processo de avaliação por não possuírem os conhecimentos exigidos como requisitos. Os resultados alcançados demonstraram que CoreACQ consiste em uma solução eficiente para: (1) Validação de CQs; para isso, manipula consultas em FOL (First Order Logic) e realiza inferências sobre a SUMO com o objetivo de respondê-las utilizando um sistema ATP (Automated Theorem Prover) e para (2) Raciocínio Automático; as funcionalidades implementadas permitem que novos fatos sejam deduzidos a partir de uma ontologia em FOL, bem como otimização do tempo do processo de raciocínio por representação e busca de axiomas em grafos e um mecanismo de cache. Concluímos também que nosso framework é uma solução computacional que pode ser utilizado por outras ferramentas de desenvolvimento de ontologias, como por exemplo, o protégé. Approaches based on Competency Questions (CQ), that allow to specify the requirements of an knowledge base in the form of queries, designed for ontology evaluation, are widely used in tools found in the area of ontology engineering. An ontology engineer must to verify your ontology according to the specification of your project, he can to define a set of CQs which must be inferred - confirmed by automated reasoning - by the ontology and, in the case of inconsistent or incomplete informations, he needs to fix the found problems. Nowadays there are tools capable of support the process for ontology evaluation through resources to facilitate and automate the verification (or validation) of CQs, however, they have needed a lot of intervention from humans to fix errors in the development of the ontologies. This situation take us to an exploration by new ways to allow tools that can improve an ontology automatically, using free and reliable sources of information like, for example, the SUMO Upper Ontology. We develop CoreACQ, a computational framework, built to validate CQs by automated reasoning over the SUMO. Our solution can be a feasible solution to the problem of incomplete domain ontologies - those who fail in the evaluation process because don’t have the required knowledge. The results obtained show that CoreACQ is an efficient solution to: (1) CQ Validation; it manipulates FOL (First Order Logic) queries and performs inferences over the SUMO with the purpose of answering them through an ATP (Automated Theorem Prover) system and (2) Automated Reasoning; the implemented functions allow deduction of knowledge from a FOL ontology, and optimization of the reasoning process time by axioms representation and search in graphs and a cache mechanism. We also conclude that our framework is an computacional solution that can be used by other ontology development tools, like for example, the protégé.
- Published
- 2019
17. Uma ferramenta para modelagem visual de ontologias com raciocínio automático
- Author
-
FERNANDES, Renan Leandro, FREITAS, Frederico Luiz Gonçalves de, and AZEVEDO, Ryan Ribeiro de
- Subjects
Web semântica ,Inteligência artificial ,Ontologias - Abstract
CNPq A sintaxe e semântica formal das linguagens ontológicas da Web Semântica como Web Ontology Language (OWL) e Resource Description Framework (RDF) são de difícil aprendizado para pessoas sem conhecimento especializado na área de ontologias. As pesquisas em ontologias têm concentrado esforços na tentativa de minimizar este problema, buscando formas de ajudar desenvolvedores e engenheiros do conhecimento na construção de ontologias. Ferramentas de Autoria Inteligente, baseadas em Modelagem Visual, as quais possuem o intuito de facilitar as atividades dos usuários na construção dos seus artefatos computacionais, sejam eles blogs, sites, softwares, bases de dados, ontologias, entre outros, funcionam de forma simples e intuitiva. O intuito da dissertação é desenvolver uma ferramenta de autoria inteligente para construção, manipulação e manutenção de ontologias, permitindo sua criação a partir de modelagem visual. Outro objetivo desta dissertação foi utilizar o raciocínio automático de subsunção, deduzindo novos fatos a partir de fatos modelados e raciocínio de inconsistência durante a criação das ontologias, apresentando estes resultados de forma visual aos seus usuários. A ferramenta desenvolvida, denominada Medina, é útil no apoio das atividades de usuários experientes, como Engenheiros de Ontologias, no apoio a usuários leigos interessados no desenvolvimento de bases de conhecimento modeladas como ontologias, bem como em seu aprendizado. Em comparação com ferramentas de edição visual de ontologias encontradas na literatura, a ferramenta proposta foi a única a apresentar a visual explanation das deduções e inconsistências obtidas através do raciocínio automático. Na realização dos experimentos, foi percebido que utilizar a combinação de várias técnicas de visualização foi uma abordagem que apresentou bons resultados. A ferramenta Medina possui a visualização em grafos, em árvore e o uso de ocultar objetos visuais. Os usuários interagiram de maneira satisfatória entre as três técnicas com destaque para a funcionalidade de ocultar axiomas presente na ferramenta proposta e foi bem avaliada pelos participantes do experimento. Com a análise dos resultados, conclui-se que a ferramenta proposta possui capacidades de modelagem visual de ontologias com expressividade até ℒℋℐ, realiza raciocínios automáticos e também auxilia os desenvolvedores no processo de criação de ontologias, reduzindo a dificuldade empregada no desenvolvimento. The syntax and semantics of the Semantic Web such as Web Ontology Language (OWL) and Resource Model Framework (RDF) are difficult to learn for people with no specialized knowledge in ontology area. Research on ontologies has focused efforts to minimize this problem, seeking ways to help developers and knowledge engineers in the construction of ontologies. Intelligent Authoring Tools, based on Visual Modeling, which are intended to facilitate the activities of users in the construction of their computational artifacts, be they blogs, sites, software, databases data, ontologies, among others, work in a simple and intuitive way. The purpose of the dissertation is to develop a tool for intelligent authoring for the construction, manipulation, and maintenance of ontologies, allowing it’s creation from visual modeling. Another objective of this dissertation was to use automatic subsumption reasoning, deducing new facts from modeled facts and inconsistency reasoning during the creation of ontologies, presenting these results in a visual way to its users. The developed tool, named Medina, is useful in supporting the activities of experienced users, such as Ontology Engineers, in supporting lay users interested in developing knowledge bases modeled as ontologies, as well as in their learning. In comparison with the visual editing tools of ontologies found in the literature, the proposed tool was the only one to present a visual explanation of the deductions and inconsistencies obtained through automatic reasoning. In the accomplishment of the experiments, it was perceived that to use the combination of several visualization techniques was an approach that presented good results. The Medina tool has graph view, tree view, and the use of hiding visual objects. The users interacted satisfactorily among the three techniques, highlighting the functionality of hiding axioms present in the proposed tool and was well evaluated by the participants of the experiment. The analysis of the results shows that the proposed tool has visual modeling capabilities of ontologies with expressivity up to ℒℋℐ, performs automatic reasoning and also assists developers in the process of creating ontologies, reducing the difficulty employed in ontology development.
- Published
- 2019
18. Sumarização automática de textos baseada em conceitos via programação linear inteira e regressão
- Author
-
OLIVEIRA, Hilário Tomaz Alves de, FREITAS, Frederico Luiz Gonçalves de, and LIMA, Rinaldo José de
- Subjects
Inteligência artificial ,Processamento de linguagem natural ,Mineração de texto ,Sumarização automática de texto - Abstract
CNPq Sumarização Automática de Textos é o processo de criação automático de um resumo contendo as informações mais relevantes, a partir de um único documento (monodocumento) ou de um grupo de documentos relacionados (multidocumento). O interesse no desenvolvimento de novos e eficientes sistemas de sumarização é crescente, já que eles possuem o potencial de auxiliar no processamento de grandes volumes de documentos textuais, ressaltando as informações mais relevantes para os usuários. Apesar dos avanços obtidos nos últimos anos, ainda existe uma grande diferença entre os resumos gerados automaticamente e os escritos por seres humanos. A maioria das atuais estratégias de sumarização são estáticas, ou seja, adotam um método de sumarização com um conjunto de parâmetros pré-definido para todos os documentos de entrada. Investigações recentes na literatura e experimentos conduzidos neste trabalho demonstram que essa característica é uma significante limitação, já que a adoção de um único método de sumarização não consegue obter um alto desempenho para todos os documentos, mesmo quando eles pertencem ao mesmo domínio. Neste contexto, este trabalho propõe uma abordagem baseada em conceitos utilizando Programação Linear Inteira (PLI) e regressão para as tarefas de sumarização monodocumento e multidocumento de artigos de notícias. A arquitetura da solução proposta é composta por duas etapas principais: a geração de diversos resumos candidatos e, posteriormente, a identificação e seleção do resumo mais informativo. Duas abordagens baseadas em conceitos usando PLI são propostas para a geração dos resumos candidatos nas tarefas de sumarização monodocumento e multidocumento. Tais abordagens possibilitam a exploração de diversas configurações, permitindo a geração de uma grande variedade de resumos candidatos representando diferentes perspectivas. As abordagens propostas são integradas em uma macro arquitetura com a etapa de seleção do resumo mais informativo. Essa etapa de seleção vislumbra estimar a cobertura de informações relevantes presentes nos resumos candidatos gerados, permitindo assim, a identificação do resumo estimado como mais representativo. Para isso, diversas características baseadas em tradicionais indicadores de relevância, como posição, frequência e centralidade, identificadas na literatura e outras propostas neste trabalho, são exploradas para a construção de um modelo de regressão. Diversos experimentos foram conduzidos nos principais corpora da área, visando avaliar diferentes aspectos das abordagens propostas nas tarefas de sumarização monodocumento e multidocumento. Os resultados obtidos demonstram que as soluções propostas, para ambas as tarefas de sumarização, são capazes de aumentar a informatividade dos resumos gerados, com base nas medidas de cobertura do ROUGE-1 e ROUGE-2, em comparação com outros sistemas do estado da arte. Automatic Text Summarization (ATS) is the process of automatically creating a summary containing the most relevant information from a unique document (singledocument) or a group of related documents (multi-document). The interest in developing new and efficient summarization systems is increasing, since they have the potential to assist the processing of large volumes of textual documents, highlighting the most relevant information for users. Despite the advances achieved in recent years, there is still a considerable difference between automatically generated summaries and those written by human beings. Most current summarization approaches are static, i.e., they adopt a summarization method with a predefined set of parameters for all input documents. Recent investigations in the literature and experiments conducted in this work demonstrate that this characteristic is a significant limitation since the adoption of a single summarization method cannot obtain high performance for all documents, even when they belong to the same domain. In this context, this work proposes a concept-based approach, employing Integer Linear Programming (ILP) and regression for single- and multi-document summarization of news articles. The architecture of the proposed solution consists of two main steps: the generation of several candidate summaries and, later, the identification and selection of the most informative summary. Two concept-based ILP approaches are proposed for the generation of candidate summaries in the single- and multi-document summarization tasks. Such approaches enable the exploration of several configurations, allowing the generation of a large variety of candidate summaries representing different perspectives. The proposed approaches are integrated into a macro-architecture with the most informative summary selection step. This selection stage envisages estimating the coverage of relevant information present in the candidate summaries generated, allowing the identification of the candidate summary estimated as the most informative. Several characteristics based on traditional content importance indicators, such as position, frequency, and centrality, identified in the literature and other proposed in this work, are explored for the construction of a regression model. Several experiments were conducted in the most adopted corpora of the area aiming to evaluate different aspects of the proposed approaches in the tasks of single- and multi-document summarization. The experimental results show that the proposed approaches, for both summarization tasks, can increase the informativeness of the generated summaries, based on the recall measures of ROUGE-1 and ROUGE-2, compared to other state-of-the-art systems.
- Published
- 2018
19. Uma medida de similaridade textual para identificação de plágio em fóruns educacionais
- Author
-
CAVALCANTI, Anderson Pinheiro, MELLO, Rafael Ferreira Leite de, MIRANDA, Péricles Barbosa Cunha de, LIMA, Rinaldo José de, and FREITAS, Frederico Luiz Gonçalves de
- Subjects
Educação a distância ,Plágio ,CIENCIA DA COMPUTACAO [CIENCIAS EXATAS E DA TERRA] ,Fórum educacional ,Similaridade semântica ,Mineração de texto - Abstract
Submitted by Mario BC (mario@bc.ufrpe.br) on 2019-02-26T14:31:01Z No. of bitstreams: 1 Anderson Pinheiro Cavalcanti.pdf: 3360691 bytes, checksum: d2510e8043cac677443d65100e0f9663 (MD5) Made available in DSpace on 2019-02-26T14:31:01Z (GMT). No. of bitstreams: 1 Anderson Pinheiro Cavalcanti.pdf: 3360691 bytes, checksum: d2510e8043cac677443d65100e0f9663 (MD5) Previous issue date: 2018-01-31 With the increasing use of technology as an educational support tool, the use of Virtual Learning Environment (VLE) has increased in recent years. These environments provide several tools to improve the interaction between teachers and students, where some examples are: forum, blog, wiki, among others. These tools have great potential for generating content, which can be used to aid in the process of teaching learning. However, due to the great amount of interactions between the students and the teacher, it is difficult for the teacher to evaluate and follow up all the material that is made available by the students. A tool that stands out in relation to the generation of collaborative content is the forum. Among the possible functionalities of the forums is the question of evaluation. Many distance disciplines use forum interaction as a form of student assessment. However, with the large amount of information posted on the tool, it often becomes impractical for the teacher to manually detect plagiarism in the responses. The fundamental basis for the creation of automatic plagiarism detection systems is the creation of a measure of similarity that can measure the relationship between two texts. The similarity between texts is important in several Natural Language Processing (NLP) applications, such as retrieving information, summarizing text, extracting information, and grouping text. For example, in retrieval of information, the similarity measure is used to assign a classification score between a query and the obtained text. Various measures of similarity between texts can be found; however, in general, they are language dependent. In the case of Portuguese, few measures have been found and most use only statistical techniques, not taking into account semantic aspects of texts. In addition, there are papers in the literature to identify plagiarism in activities, scientific articles or course completion work. However, when context is educational forums the identification of plagiarism becomes even more difficult mainly because of the size of the text and by not requiring a formal language. Therefore, this paper aims to propose a measure that calculates the similarity between sentences written in Portuguese taking into account the semantics of texts. This measure was evaluated on the basis of the ASSIN workshop 2016. The proposed measure achieved better results than the first place in the competition reaching 0.70 Pearson correlation and 0.47 mean squared error. In addition to this evaluation, a case study was carried out to evaluate similarity in postings of educational forums in a discipline of Computer Science. The results were evaluated by the teachers of the discipline who confirmed the effectiveness of the tool. Com o crescente uso da tecnologia como ferramenta de apoio educacional, o uso de Ambiente Virtual de Aprendizagem (AVA) tem aumentado nos últimos anos. Estes ambientes disponibilizam várias ferramentas para melhorar a interação entre professores e alunos, tais como fórum, blog, wiki, entre outras. Estas ferramentas possuem um grande potencial para gerar conteúdo, o que pode ser usado para auxiliar no processo de ensino-aprendizagem. Porém, devido a grande quantidade de interações entre os alunos e o professor, torna-se difícil para o professor avaliar e acompanhar todo o material que é disponibilizado pelos alunos. Uma ferramenta que se destaca em relação à geração de conteúdo colaborativo é o fórum. Dentre as possíveis funcionalidades dos fóruns se destaca a questão da avaliação. Muitas disciplinas a distância utilizam a interação no fórum como forma de avaliação dos alunos. Contudo, devido a grande quantidade de dados postado na ferramenta, é difícil para o professor identificar problemas nas postagens, como por exemplo a detecção de plágio. A base fundamental para a criação de sistemas automáticos de detecção de plágio é a criação de uma medida de similaridade que possa medir a relação existente entre dois textos. A similaridade entre textos é importante em diversas aplicações de Processamento de Linguagem Natural (PLN), como recuperação de informação, sumarização de texto, extração de informações e agrupamento de texto. Várias medidas de similaridade entre textos já foram criadas; entretanto, em geral, elas são dependentes de idioma. No caso do português, poucas medidas foram encontradas e a maioria utiliza apenas técnicas estatísticas, não levando em consideração aspectos semânticos dos textos. Além disso, existem trabalhos na literatura para identificação de plágio em atividades, artigos científicos ou trabalhos de conclusão de curso. No entanto, quando o contexto é fóruns educacionais a identificação de plágio se torna ainda mais difícil por causa principalmente do tamanho do texto e por não exigir uma linguagem formal. Diante disso, este trabalho propõe uma medida que calcula a similaridade existente entre sentenças escritas em português levando em consideração a semântica dos textos. Esta medida foi avaliada na base da competição Workshop de Avaliação de Similaridade Semântica e Inferência Textual (ASSIN) 2016. A medida proposta alcançou resultados melhores que o primeiro colocado da competição atingindo 0,70 de correlação de Pearson e 0,47 de erro quadrático médio. Além desta avaliação, foi realizado um estudo de caso para avaliação de similaridade em postagens de fóruns educacionais em uma disciplina de Ciência da Computação. Os resultados foram avaliados pelos professores da disciplina que confirmaram a eficácia da ferramenta.
- Published
- 2018
20. Conversão de provas em lógica de descrições ALC geradas pelo método de conexões para sequentes
- Author
-
SILVA, Eunice Palmeira da, FREITAS, Frederico Luiz Gonçalves de, and OTTEN, Jens
- Subjects
Raciocínio automático ,Teoria da computação ,Inteligência artificial ,Ciência da computação - Abstract
CAPES O método de conexões ganhou boa reputação na área de prova automática de teoremas por cerca de três décadas, devido à sua simplicidade, clareza, eficiência e uso racional de memória. Este método recentemente tem sido aplicado em provadores automáticos que raciocinam sobre ontologias escritas em lógica de descrições ℒ. No entanto, as provas geradas por esse método são de difícil compreensão, consistindo em um conjunto de pares de conexões que são formados por fórmulas atômicas complementares encontradas ao longo de cada caminho de uma matriz. A legibilidade das provas é em grande parte perdida pelo ganho de desempenho e transformações aplicadas à fórmula a ser provada. Esse trabalho apresenta um método de conversão das provas em ℒ geradas pelo método de conexões para um sistema de sequentes ℒ. Com a transformação para sequentes, obtém-se uma representação mais legível e inteligível. O método de conversão proposto aqui recebe a fórmula ℒ e sua correspondente prova de conexões em formato não-clausal. Uma representação em árvore da fórmula ℒ é construída e serve como guia no processo de conversão. À medida que a prova em conexões é percorrida, busca-se na árvore da fórmula os pares de literais complementares que formam as conexões; paralelamente a este processo, uma prova em sequentes vai sendo construída. Por fim, é apresentado o algoritmo que implementa o método de conversão, cuja complexidade sugere a viabilidade do método. The connection method earned good reputation in the field of automated theorem proving for around three decades, thanks to its simplicity, clarity, e_ciency and parsimonious use of memory. It has recently been applied in automatic provers that reason over ontologies written in the description logics ℒ. However, its proofs are not very readable, consisting of a set of pairs of connections that are formed by complementary atomic formulas found in each path through a matrix. The readability is largely lost by the gain of performance and transformations applied to the formula to be proved. This work presents a conversion method to translate ℒ connection proofs into ℒ sequent proofs. With the translation into sequent, a more readable and intelligible representation is obtained. The conversion method proposed here receives the ℒ formula and its corresponding connection proof in non-clausal form. A tree representation of the ℒ formula is built and serves as a guide in the conversion process. As the connection proof is traversed, the pairs of complementary literals that form the connections are searched in the formula tree; in parallel to this process, a sequent proof is being built. Finally, the algorithm that implements the process is presented, of which the complexity suggests the viability of the method.
- Published
- 2017
21. Um Chatterbot para criação e desenvolvimento de ontologias com lógica de descrição
- Author
-
LIMA, Carlos Eduardo Teixeira, FREITAS, Frederico Luiz Gonçalves de, and AZEVEDO, Ryan Ribeiro de
- Subjects
Inteligência artificial ,Ontologias - Abstract
Chatterbots são aplicações que têm como objetivo simular uma conversa real com um ser humano, de forma com que eles se comportem também como humanos. A principal ideia em questão é fazer como que as duas partes do diálogo conversem sobre um determinado domínio de conhecimento, de forma que a conversa gire inteligentemente em torno deste domínio. A partir de um diálogo são emitidas diversas informações que podem, e devem ser relevantes para o domínio em questão. Assim, essas informações consequentemente geram conhecimento e aprendizado por meio das partes envolvidas no diálogo. Isso é bastante comum nas conversas de chat, fazendo com que sejam bastante utilizadas como fonte de conhecimento. De acordo com Thomas Gruber (1993), ontologia é uma especificação explícita de uma conceitualização. É um recurso de grande utilidade para representação de conhecimento. A ontologia encontra-se em nível de abstração tão alto, que a mesma estabelece uma terminologia comum e não ambígua para o domínio em questão. Isso faz com que ela seja um recurso fortemente adequado para seu uso como modelo de dados, uma vez que a representação dos conceitos do domínio proposto “ensina” o chatterbot, possibilitando a realização de inferências sobre os objetos, e o torna apto para conversar com o usuário de maneira mais natural possível. Existe um grande desafio no que diz respeito a extração de conhecimento a partir de linguagem na natural, uma vez que há uma variabilidade na forma como as pessoas escrevem e falam. Isso dificulta a obtenção de conhecimento por meio dos chatterbots a partir de linguagem natural. O objetivo geral deste projeto é demostrar que a construção e representação do conhecimento decorrentes de diálogos entre pessoas e chatterbots é uma solução viável para o processo de aquisição de um modelo de domínio baseado em ontologias, modelado em lógica de descrição. Chatterbots are applications that aim to simulate a real conversation with a to be human, so that they also behave like humans. The main idea in issue is to make the two sides of the dialogue talk about a given domain of knowledge, so that the talk revolves intelligently around this domain. From a dialogue, a variety of information is issued that can, and should be, relevant to the domain in question. Thus, this information knowledge and learning through the parties involved in the dialogue. This is quite common in chat conversations, making them widely used as a source of knowledge. According to Thomas Gruber (1993), ontology is an explicit specification of a conceptualization. It is a very useful resource for representing knowledge. The ontology is at such a high level of abstraction that it establishes a terminology common and unambiguous for the domain in question. This makes it a strongly suitable for its use as a data model, since the representation of the concepts of the proposed domain "teaches"chatterbot, making it possible to make inferences on the objects, and makes it apt to talk to the user as naturally as possible. There is a great challenge regarding the extraction of knowledge from natural language, since there is a variability in the way people write and speak. This makes it difficult to obtain knowledge through chatterbots from natural language. The general objective of this project is to demonstrate that the construction and knowledge arising from dialogues between people and chatterbots is a viable solution for the process of acquisition of an ontology-based domain model, modeled on description.
- Published
- 2017
22. Um método de expansão de ontologias baseado em questões de competência com rastreabilidade automática
- Author
-
BARBOSA, Yuri de Almeida Malheiros and FREITAS, Frederico Luiz Gonçalves de
- Subjects
Inteligência artificial ,Ontologia - Abstract
Questões de competência possuem um papel importante no ciclo de desenvolvimento de ontologias. Elas são amplamente usadas para definir requisitos de ontologias, entretanto a maioria das metodologias de desenvolvimento não especifica como a checagem dos requisitos deve ser feita ou apenas sugere que as questões sejam verificadas manualmente. Assim, faltam ferramentas que suportem checagem automática, inclusive utilizando raciocinadores, que podem agilizar o desenvolvimento e melhorar a qualidade das ontologias produzidas. Além disso, a rastreabilidade de requisitos raramente é explorada, mesmo essa atividade sendo estudada e utilizada por anos na engenharia de software. Nesse trabalho são introduzidos um método iterativo para expansão de ontologias usando questões de competência e uma ferramenta que implementa o método. Várias inovações são apresentadas: um componente que traduz questões de competência em linguagem natural para lógica de descrição para efetuar checagem automática usando raciocinadores; um gerador de questões de competência para guiar engenheiros durante o desenvolvimento; um componente que escreve código OWL de acordo com perguntas e respostas; um rastreador que monitora as relações entre requisitos e código e vice-versa; e um método que integra todos os pontos anteriores, criando uma maneira iterativa de expandir ontologias através de perguntas e respostas semelhante a um diálogo controlado. Para avaliar o método proposto e sua implementação foram executados testes com a ontologia SNOMED CT para analisar o comportamento dos componentes criados. Também foram realizados dois estudos de caso para avaliar o uso da ferramenta por usuários. Os testes mostraram a capacidade do método em checar e adicionar conhecimento a uma ontologia. Foi possível criar perguntas para checar todos os axiomas escolhidos da SNOMED CT e a implementação conseguiu sugerir perguntas para adicionar conhecimento à ontologia em 69,1% dos casos. Os estudos de caso levantaram os pontos fortes e fracos da implementação, mostrando o potencial da implementação em melhorar o desenvolvimento de ontologias, pois a interação através de linguagem natural é simples tanto para checagem quanto para adição de axiomas, mesmo para usuários leigos, e a rastreabilidade de requisitos grava e apresenta informações importantes para o engenheiro de ontologias. Competency questions have an important role in the development of ontologies. Usually, they are used as ontology requirements, however many ontology development methodologies do not detail how to check the requirements or only suggest checking the questions manually. Thus, there is a lack of tools to check competency questions automatically, including using reasoners, that could make the development faster and could improve the quality of ontologies. Furthermore, requirement traceability for ontology engineering is rarely explored, even though it is studied and used by software engineers for years. In this work, we introduce an iterative method to expand ontologies using competency questions, and a tool that implements this method. Many novel approaches are presented: a component that translates natural language competency questions to description logics to check them automatically using reasoners; a component that generates competency questions to guide engineers; a component that writes OWL code using questions and answers; a tracker that monitors the relations among requirements and code and vice-versa; and a method that integrates all previous components to create an iterative way to expand ontologies using questions and answers similar to a controlled dialogue. To evaluate the method and its implementation we ran tests using the SNOMED CT ontology to analyze the behavior of the developed components. Also, we did two case studies, thus users could evaluate the tool. The tests showed the capacity of the method to check and add knowledge to an ontology. We could create questions to check all chosen axioms of SNOMED CT, and the implementation was able to suggest questions to add knowledge in 69,1% of cases. The case studies exposed the strength and weakness of the implementation. They showed the implementation potential to improve the ontology development, because it is simple to interact using natural language to check and to add axioms, even for non-experts users. Also, the requirement traceability stores and presents important information for the ontology engineers.
- Published
- 2017
23. Raciocínio baseado em casos na confecção de termos de referência para contratações públicas
- Author
-
JULIÃO, Daniel Vitor Santos and FREITAS, Frederico Luiz Gonçalves de
- Subjects
Inteligência artificial ,Raciocínio baseado em casos - Abstract
Todos os dias, os órgãos públicos precisam de contratos firmados com terceiros para a manutenção de suas operações, o fornecimento de seus serviços, ou o atendimento às suas demandas internas, como a execução de obras de engenharia, aquisição de equipamento e até mesmo a aquisição de sistemas de informação específicos. A licitação é o procedimento administrativo pelo qual a Administração Pública expõe suas necessidades e intenções, de modo a exprimir vontade de celebrar contrato administrativo, visando encontrar a proposta mais vantajosa, por meio da publicação de Termo de Referência ou Projeto Básico. Esse tipo de documento contém todas as definições necessárias e suficientes para os procedimentos administrativos. Na maioria dos casos, para cada uma das aquisições ou contratações diferentes, é necessário a confecção de um documento e seus artefatos constituintes, o que pode ser uma tarefa de alta complexidade, além de onerar o tempo dedicado às atividades de gestão propriamente dita, executadas diariamente pelos representantes dos órgãos públicos incumbidos de tais responsabilidades. Com a fundamentação teórica dos processos licitatórios de aquisições e contratações e a análise das técnicas do Raciocínio Baseado em Casos (RBC), mais fortemente do Raciocínio Baseado em Casos Textual (RBCT), foi possível o desenvolvimento de um protótipo de aplicação de RBC para a execução de quasi-experimento visando verificar, pela realização de teste de hipóteses, como a Tecnologia da Informação e Comunicação (TIC) torna mais ágeis as tarefas referentes ao domínio da confecção de Termos de Referência. Assim, a presente pesquisa visa apresentar o uso do Raciocínio Baseado em Casos, como forma de auxiliar os gestores públicos, agilizando suas exaustivas buscas por material que venha a ser útil, tornando seus processos e tarefas cada vez menos demorados. Every day, government entities need contracts with third parties for the maintenance of its operations, the provision of their services, or meet their inner demands, such as the execution of engeneering works, aquisition of equipment and even to purchase specific information systems. Bidding is the administrative procedure by which the Public Administration exposes your needs and intentions, in order to express willingness to signing administrative contract, aiming to find the most advantageous tender, publishing Terms of Reference or Basic Project Project. This type of document contains all the necessary settings and sufficient for administrative procedures. In most cases, for each acquisition or different contracts, the production of a document and its constituent artifacts is necessary, which can be a highly complex task, and encumber the time devoted to actual management activities carried out daily by representatives of those government entities entrusted with such responsibilities. With the theoretical basis of the bidding processes and the analysis of techniques of Case Based Reasoning (CBR), more strongly the Textual Case Based Reasoning (TCBR), it was possible to develop a CBR prototype application to execute a quasi-experiment in order to verify, by performing hypothesis testing, how the Information and Communication Technology (ICT) become tasks of preparation of Terms of Reference more agile. Thus, this research presents the use of Case Based Reasoning, in order to assist public managers, streamlining their exhaustive search for material that will be useful, making its processes and tasks less and less time consuming.
- Published
- 2016
24. Interpretação ontológica de bancos de dados biomédicos: modelos de interpretação e enriquecimento axiomático
- Author
-
SILVA, Filipe Santana da, FREITAS, Frederico Luiz Gonçalves de, and SCHULZ, Stefan P.
- Subjects
Representação ,Banco de dados biológicos ,Anotação ,Ontologia ,Interpretação - Abstract
CNPQ CAPES Com o crescimento em quantidade e dimensão dos bancos de dados (BDs) biomédicos, ontologias foram incorporadas para anotá-los semanticamente, facilitando a interpretação, acesso, recuperação e processamento dos dados. Entretanto, como ontologias e BDs são criados com propósitos diferentes, não é possível interpretar registros de BDs de forma clara e definida. Ontologias supradomínio podem ser empregadas para fornecer classes e relações, de maneira que o conteúdo de BDs anotados seja representado e interpretado adequadamente. A representação das anotações evita ambiguidades, mantendo o engajamento ontológico e permitindo consultar os dados utilizando raciocínio. Nossa hipótese é de que é possível interpretar ontologicamente o conteúdo de um ou mais BDs anotados, determinando como as entidades anotadas dos BDs se relacionam. O objetivo deste trabalho é avaliar e propor estratégias que auxiliem o usuário no processo de interpretação ontológica de registros de BDs biomédicos como indivíduos, classes e disposições, a partir de ontologias formais. A interpretação ontológica é construída ao empregar classes e relações da BioTopLite2 (BTL2), organizando e estendendo ontologias utilizadas como anotação, e.g. GO, ChEBI, SNOMED e PRO; provenientes dos BDs UniProt, Ensembl e NCBI Taxonomy. São investigadas quatro formas de interpretação, viz. quando as anotações são: indivíduos, subclasses, incluem disposições, e um híbrido entre subclasses e disposições. A interpretação como subclasses é a mais indicada ao comparar questões de desempenho, expressividade e capacidade de consultar, utilizando raciocínio e integração semântica. Demonstramos que esse tipo de interpretação é aplicável na prática, apresentando bom desempenho para consultas utilizando raciocínio. Foi desenvolvido um protótipo integrativO CBR para automatizar a interpretação ontológica como subclasses. A ferramenta é responsável por reconstruir o processo de interpretação ontológica, recuperando indivíduos, identificando classes e gerando uma ontologia como modelo de interpretação. A interpretação ontológica de anotações apresenta benefícios: verificar a consistência do BD, e.g. se existem anotações contraditórias; representação formal e ontológica da organização dos dados; a análise do engajamento ontológico dos dados anotados; e, a criação de consultas que utilizam raciocínio para explorar os dados interpretados. With the growth of data bases (DBs) in number and size, ontologies have been incorporated to annotate DBs semantically, facilitating the record interpretation, access, retrieval and methods for querying data. However, as ontologies and DBs are designed with different purposes, it is not possible to interpret DB annotated DB records in a clear and defined way. Upper-domain ontologies can be used as provider of classes and relations whether the annotated content of annotated entities from DBs are adequately interpreted and represented. The representation ensure that ambiguities are avoided by keeping the ontological commitment and allowing queries supported by reasoning. Our hypothesis is that it is possible to interpret ontologically annotated content from one or more DBs, determining how annotated entities relate to each other. The aim of this work is to evaluate and propose strategies to assist the user in the ontological interpretation process of Biological DBs as individuals, classes and dispositions. The ontological interpretation of Biological DBs is created by reusing classes and relations from BTL2, organizing and extending ontologies used to annotate data, e.g. GO, ChEBI, SNOMED and PRO; from UniProt, Ensembl and NCBI Taxonomy DBs. Four ways of interpreting annotated data are investigated, viz. as ontology individuals; subclasses; dispositions; and, a hybrid among classes and dispositions. Interpretation as subclasses was identified as the appropriate choice when considering: reasoning performance; expressiveness; and, querying with reasoning and ontology-based data integration approaches are taken into account. It has been shown that this type of interpretation is useful in practice, with a good performance for (both) reasoning and querying. A prototype called integrativO CBR was created in order to automate interpretation as subclasses. This tool is responsible for recreating the process of applying the ontological interpretation, enabling the retrieval of individuals from data, referent classes identification, and generation of an interpretation model. The ontological interpretation of annotations has several benefits, such as: DB consistency evaluation for conflicting annotations; formal and ontological representation of how data is organized; verifying the ontological commitment of annotated data; and, the ability to create queries to explore reasoning.
- Published
- 2016
25. A connection-based reasoner for ALC ontologies
- Author
-
MELO FILHO, Dimas Luiz Diogo de, FREITAS, Frederico Luiz Gonçalves de, and OTTEN, Jens
- Subjects
Inteligência artificial ,Ontologias ,Lógicas de descrição - Abstract
O Método de Conexões é um procedimento de prova baseado na busca de conexões entre literais complementares em cláusulas diferentes dentro de uma matriz. Abordagens baseadas em conexões foram usadas como base para a construção de raciocinadores automáticos em diversas lógicas, tais como lógica modal, lógica intuicionista e lógica de primeira ordem. Neste contexto, este trabalho apresenta o Raccoon, um raciocinador automático multi-plataforma para Lógicas de Descrição, em particular para a Linguagem de Descrição ALC. O raciocinador é baseado na abordagem CM-ALC, que é uma adaptação do Método de Conexões para ALC. O raciocinador implementa normalização, utiliza técnicas adicionais de otimização e suporta o raciocínio sobre ontologias OWL 2. Foram conduzidos experimentos a fim de avaliar o desempenho do raciocinador, comparando-o com raciocinadores do estado da arte, utilizando o dataset da OWL Reasoner Evaluation Workshop de 2014. Os resultados apresentados indicam que o raciocinador possui um desempenho competitivo para ontologias ALC. The Connection Method is a goal-oriented proof procedure based on the search of connections between complementary literals in different clauses of a matrix. Connection-based approaches were successfully used as a foundation for automated reasoners for various logics, such as modal logic, intuitionistic logic and first-order logic. In this context, this work presents a multi-platform automated reasoner for Description Logics, particularly for the ALC Description Language. The reasoner is based on the CM-ALC approach, a variant of the Connection Method for ALC. The reasoner implements a type of normalization for DL, extends the method with different optimization techniques and supports parsing and reasoning over OWL 2 ontologies. Experiments were carried out to evaluate how the parser performs, comparing it with the state-of-the-art reasoners using the dataset from the OWL Reasoner Evaluation Workshop of 2014. The experiments show that the reasoner performs competitively for ALC ontologies.
- Published
- 2015
26. Uma abordagem ontológica para modelagem de crimes contra o patrimônio
- Author
-
BARROS, Patrícia Vieira da Silva and FREITAS, Frederico Luiz Gonçalves de
- Subjects
Ontologia ,Web semântica ,Inteligência artificial ,Representação do conhecimento - Abstract
CNPQ O Código Penal Brasileiro, em seu Título II (arts. 155 a 183), define os crimes contra o patrimônio. O objetivo da Lei Penal é proteger o patrimônio da pessoa física e jurídica. Tanto o crime de furto, roubo, latrocínio, extorsão e a apropriação indébita estão inseridos no rol dos crimes contra o patrimônio. A diferença entre tais crimes será mostrada na OntoCrimePatrimonio, uma abordagem ontológica que utiliza uma linguagem controlada, a qual ajuda o usuário na tomada de decisão sem que este conheça os formalismos utilizados internamente pelo sistema onde serão realizadas inferências a partir da prova fornecida pelos raciocinadores, averiguando se tal diferenciação entre esses crimes estão ontologicamente e logicamente corretos. The Brazilian Penal Code, in its Title II (Arts. 155-183) defines the crimes against property. The aim of the Criminal Law is to protect the assets of individuals and companies. Both the crime of theft, burglary, robbery, extortion and embezzlement are inserted in the list of crimes against property. The difference between such crimes will be shown in OntoCrimePatrimonio, an ontological approach that uses a controlled language, which helps the user in making a decision without it knows the formalities used internally by the system which will be held inferences from the evidence provided by reasoners, ascertaining whether such a differentiation between these crimes are ontologically and logically correct.
- Published
- 2015
27. Aplicação de métodos de raciocínio baseado em casos de conhecimento intensivo para a web semântica: um estudo sobre o domínio biológico
- Author
-
SEGUNDO, Plácido das Chagas Soares, FREITAS, Frederico Luiz Gonçalves de, and SILVIA, Filipe Santana da
- Subjects
Framework ,Representação de conhecimento ,Web semântica ,Inteligência artificial - Abstract
A literatura tem descrito soluções baseadas em web semântica e ontologias como uma estratégia para a implementação de consultas e integração entre fontes de dados, considerando que ontologias e fontes de dados podem apresentar conteúdo complementar em um mesmo domínio. A estratégia tradicional é baseada na execução de consultas em SPARQL (Query Language for RDF) para acesso aos dados de forma integrada a ontologias. Esta estratégia não apresenta expressividade suficiente para derivar novo conteúdo, pois não vai além da álgebra relacional. Uma alternativa à SPARQL é aplicar raciocínio por subsunção disponível para ontologias descritas com Description Logics (DL). No entanto DL por si só não é capaz de determinar o que significa uma instância (dado) sem a existência de uma descrição explícita (axioma). Nesse sentido, há limitações sobre os métodos disponíveis para a web semântica, pois não apresentam uma solução capaz de interpretar de forma automatizada o que significa uma instância (dado) sem a existência de axiomas os quais descrevam o comportamento do domínio. Neste trabalho, é levantada a hipótese de que é possível realizar o aperfeiçoamento nos mecanismos de raciocínio sobre os dados de forma que novos axiomas possam ser gerados segundo a demanda do usuário, e.g. a partir de consultas. Este processo é baseado na utilização da semântica inerente aos registros dos bancos de dados, e dos mapeamentos existentes entre as ontologias e os bancos. Para isso, além das técnicas de web semântica levantadas, são utilizados métodos de Knowledge-intensive Case Based Reasoning (KI-CBR) para a recuperação das informações que representem os melhores resultados. O presente trabalho tem como objetivo apresentar uma proposta de evolução aos métodos de KI-CBR existentes para permitir a recuperação e a geração de casos em ambientes heterogêneos, integrados por meio de várias ontologias e que incluam as restrições disponíveis nas ontologias no processo de definição de solução. O processo de definição de solução é relacionado à extração de novos axiomas a partir do arranjo dos dados e das consultas criadas pelo usuário. Como ponto de partida, será utilizada e modificada a metodologia de KI-CBR incluída na ferramenta jCOLIBRI2. Dados (UniProt/SwissProt, Ensembl e NCBI Taxonomy) e ontologias (Gene Ontology, Chemical Entities of Biological Interest, Protein Ontology e BioTopLite2) do domínio biológico serão utilizados para exemplificação devido a revisão manual, presença de anotações e nível de formalização do conhecimento. A nova ferramenta de CBR derivada do presente trabalho será chamada de IntegrativO CBR e será disponibilizada como um plugin para o editor de ontologias Protégé v.5. A contribuição desta pesquisa se reflete na implementação de uma ferramenta de auxílio para o desenvolvimento de soluções, baseadas em web semântica e ontologias, capaz de recuperar e gerar novos casos em ambientes heterogêneos mediados por ontologias. The literature describes solutions based on semantic web and ontologies as a strategy integration of data sources. The traditional semantic integration strategy relies on running queries with SPARQL to access data, supported by an ontological representation. This strategy bears a limitation: it does not have enough expressiveness to derive new content due to limited expressiveness. An alternative to SPARQL is to apply reasoning subsumption available for ontologies described in Description Logics (DL). Even in this scenario, DL is not able to determine what an instance is (from data), without explicit statements (axioms). In this sense, there are limitations on the methods available for the semantic web, as it does not provide a solution to enable interpreting data from an ontological point of view. In this work, it is hypothesized that it is possible improve the reasoning mechanisms over the data so that new axioms can be generated according to user demand, e.g. from queries. This process is based on the inherent semantics of the databases, according to an ontological background. For this, along with the semantic web techniques, Knowledge-intensive Case Based Reasoning (CBR-KI) are used to support information retrieval based on similarity analysis to extract the most suitable results. In this sense, this study aims at presenting an evolution to existing KI-CBR methods in order to allow retrieval and generation of cases in heterogeneous environments, integrated through multiple ontologies. It also reuses axioms available in ontologies to define a suitable solution. The solution-making process is related to the extraction of new axioms from the data arrangement and user-created queries. The jCOLIBRI2 tool is used as a basis for the development, as it is delivered as a suite for developing new KI-CBR solutions. Data from biomedical databases (UniProt / SwissProt, Ensembl and NCBI Taxonomy) and biomedical ontologies (Gene Ontology, Chemical Entities of Biological Interest, Protein Ontology and BioTopLite2) are used for exemplification due to manual review of data, presence of data annotations, and level of ontological formalization. The new CBR tool derived from this work is called integrative CBR, and is available as a plugin for the ontology editor Protégé v.5. The contribution of this research is reflected in the implementation of a tool to support the development of solutions based on semantic web and ontologies, able to recover and generate new cases in heterogeneous environments mediated by ontologies.
- Published
- 2015
28. SABENÇA - a framework based on ontology learning from text
- Author
-
Guimaraes, Norton Coelho, Carvalho, Cedric Luiz de, Carvalho , Cedric Luiz de, Rosa, Thierson Couto, and Freitas, Frederico Luiz Gonçalves de
- Subjects
TEORIA DA COMPUTACAO [CIENCIA DA COMPUTACAO] ,Segurança pública ,Natural language processing ,Framework ,Public safety ,Arcabouço computacional ,Ontology learning ,Aprendizagem de ontologias ,Processamento de linguagem natural - Abstract
As pesquisas sobre aprendizagem de ontologias têm sido realizadas em várias áreas do conhecimento. A extração semi-automática ou automática de ontologias auxiliaria na aceleração da estruturação do conhecimento de diversos domínios. Abordagens semiautomáticas para a aprendizagem de ontologias a partir de textos são propostas em diversos trabalhos científicos, em sua maioria, com o apoio de técnicas de processamento da língua natural. Este trabalho descreve a construção de um arcabouço computacional para aprendizagem semi-automatizada de ontologias a partir de textos na língua portuguesa. Axiomas não são tratados neste trabalho. O trabalho desenvolvido aqui originouse da proposta de Philipp Cimiano [18], juntamente com mecanismos de padronização de textos, processamento de linguagem natural, identificação de relações taxonômicas e estruturação de ontologias. Esta pesquisa resultou no desenvolvimento de um conjunto de classes, concretas e abstratas, que compõem um arcabouço computacional. Neste trabalho, também foi feito um estudo de caso no domínio de segurança pública, comprovando os benefícios do arcabouço computacional. The research on ontology learning has been carried out in various areas of knowledge. Semi-automatic or automatic extraction of ontologies would assist in the acceleration of knowledge structuring of multiple domains. Semi-automatic approaches to ontology learning from texts are proposed in several scientific papers, mostly with the support of natural language processing techniques. This paper describes the construction of a computational framework for semi-automated ontology learning from texts in the Portuguese language. Axioms are not dealt with in this paper. The work done here originated from the proposal of Philipp Cimiano [18], along with mechanisms for standardization of texts, Natural Language Processing, identification of taxonomic relationships and structure of ontologies. This research resulted in the development of a set of classes concrete and a set of abstract classes that comprise a computational framework. In this work we also present a case study in the field public safety, proving the benefits of computational framework.
- Published
- 2015
29. Um sistema de diálogo inteligente baseado em lógica de descrições
- Author
-
AZEVEDO, Ryan Ribeiro de and FREITAS, Frederico Luiz Gonçalves de
- Subjects
Inteligência artificial ,Ontologia - Abstract
CNPQ Abordagens baseadas em Processamento de Linguagem Natural, a exemplo de sistemas de diálogos – os quais funcionam respondendo de maneira breve e superficial a perguntas realizadas pelos usuários –, assim como, os sistemas baseados em técnicas de Aprendizado de Ontologias, utilizados para construção semi-automática de ontologias a partir de texto, são largamente encontrados na Web e possuem capacidade de realizar raciocínio automático, bem como, representar conhecimento. Estas capacidades – as de raciocinar e representar conhecimento - são questionáveis e consideradas como limitadas. Este quadro situacional leva nossa exploração a um novo paradigma de sistemas de diálogo, qual seja: um sistema que dialoga, aprende por dedução e representa conhecimento em Lógica de Descrições de múltiplos domínios. Desenvolver um sistema de diálogo inteligente, batizado como Renan, concebido para a criação semi-automática de ontologias – que interage com usuários em linguagem natural, formalizando e codificando conhecimento em lógica de descrições e, principlamente, com capacidade de aprender e de realizar raciocínio automático, a partir dessas interações com os usuários – pode consistir numa solução viável e efetiva na automatização do processo de construção de ontologias expressívas e de boa qualidade. Os resultados alcançados demonstraram que Renan consiste em uma solução eficiente para: (1) Representação de Conhecimento; portanto, formaliza e modela domínios de conhecimento em uma linguagem expressiva e padrão da Web Semântica, a partir de interações em linguagem natural controlada com usuários. (2) Raciocínio Automático; a abordagem permite que novos fatos sejam deduzidos a partir de outros, realizando raciocínio de subsunção, bem como, de inconsistências, verificando fatos contraditórios nas bases de conhecimento construídas durante as interações com seus usuários. Renan, contribui para com o avanço do estado da arte provendo, portanto, uma solução adequada e efetiva na construção automática de ontologias expressivas (expressividade máxima ALC – Attributive Concept Language with Complements) e raciocinio automático, a partir de interações em linguagem natural com seres humanos. Renan permite a identificação de axiomas e modificação destes. Além disso, realiza raciocínio de subsunção, deduzindo novos fatos a partir de outros, assim como, a verificação de inconsistências nestes fatos durante as interações com seus usuários. Também incluímos em nossas conclusões que nossa abordagem contribui para os engenheiros de ontologias e desenvolvedores, além de usuários inexperientes/leigos interessados no seu desenvolvimento. Approaches based on Natural Language Processing, like dialogue systems - which work responding questions asked by users in a brief and superficial way - as well as systems based on Ontology Learning techniques, which are used for the construction of semi-automatic ontologies from text, are largely found on the Web and have the ability to perform automated reasoning, as well as representing knowledge. These capabilities – those of reason and knowledge representation – are questionable and considered limited. This situation leads our operation to a new dialogue system paradigm: a system able to dialogue, learn by deduction and represent knowledge in multiple domains of Description Login. To demonstrate that the dialogue system developed and called Renan, designed for semi-automatic ontologies creation, which interacts with users in natural language, formalizing and codifying knowledge in Description Logic and, mainly, with ability to learn and perform automated reasoning -from these interactions with users – may be a viable and effective solution for automating the building process of expressive and good quality ontologies. The results showed that Renan consists in an efficient solution for: (1) Knowledge Representation; therefore, formalizes and model knowledge domain in a standard and expressive language from the Web Semantic, through natural language interactions controlled by users. (2) Automatic Reasoning; the approach allows new facts to be deduced from others facts, performing reasoning subsumption as well as inconsistencies, checking contradictory facts in the knowledge bases built during interactions with their users. Renan, contributes to state of the art advancement, providing thus an appropriate and effective solution for the automatic construction of expressive ontologies (maximum expressiveness ALC - Attributive Concept Language with Complements) and automatic reasoning, from interactions in humans natural language. Renan enables the identification and modification of these axioms. In addition, performs subsumption reasoning by deducing new facts from another, checking for inconsistencies in these facts during interactions with their users as well. We also included in our conclusive considerations that our approach contributes to the ontologic engineers and developers, and inexperienced / laity interested in the development users.
- Published
- 2015
30. Uma plataforma para sumarização automática de textos independente de idioma
- Author
-
CABRAL, Luciano de Souza, LINS, Rafael Dueire, and FREITAS, Frederico Luiz Gonçalves de
- Subjects
Engenharia Elétrica ,Análise de textos web ,Tradução ,Inteligência Artificial ,Processamento de Linguagem Natural ,Sumarização - Abstract
A Sumarização Automática de Textos é o ramo da área de recuperação de informação que utiliza técnicas e algoritmos para identificar e coletar ou gerar sentenças relevantes a partir de documentos textuais. Claramente, o uso de Processamento de Linguagem Natural (PLN) revela-se benéfico ao processo de sumarização, principalmente quando se processam documentos sem nenhuma estrutura e/ou padrão definido. Dentre as variações do processo de sumarização, as técnicas extrativas são as mais bem estudadas até o momento, em sua maioria suportando o idioma inglês, com poucas variações de suporte a mais um idioma. A presente tese propõe uma plataforma de sumarização multi-idioma na qual, fornece 17 opções de algoritmos de sumarização, assim como a possibilidade de combinação dentre eles. Tais algoritmos são uma mescla de técnicas de sumarização extrativa utilizando modelos estatísticos (e.g. TF-IDF) e modelos linguísticos (PLN com WordNet). Além disso, a plataforma é 100% não-supervisionada, o que significa que não depende do ser humano em nenhuma parte de seu processamento, ainda possui um módulo de identificação de idiomas além de um processo de tradução intermediária, os quais provêm suporte a 25 idiomas até o momento. Os resultados obtidos nos experimentos sugerem que a plataforma apresenta bons níveis de sumarização com corpora relacionados com textos jornalísticos (CNN e Temário) em diferentes idiomas (Inglês, Espanhol e Português). Efetuando uma comparação com métodos conhecidos, e.g. SuPor e TextRank, a plataforma obteve 45% de melhoria nos resultados para o corpus Temário no idioma português, se manteve dentre os melhores com o corpus CNN em inglês e resultados semelhantes com o corpus CNN em espanhol, no qual é novo e não possui resultados de outros sistemas até o momento. Além desses resultados, o seu tempo processamento é competitivo, atingindo-se em média 0,11 segundos por documento em inglês e 0,28 s para outras línguas. Desenvolvida em Java, a plataforma pode ser facilmente portável e reusada em pesquisas futuras, as quais podem ser direcionadas para preencher a lacuna da sumarização abstrativa, a qual é pouco explorada até o momento pela comunidade, tendo assim, muito a ser estudada e pesquisada. Automatic Text Summarization is the branch of information retrieval that uses techniques and algorithms to identify, collect or generate relevant sentences from text documents. The use of Natural Language Processing (NLP) techniques has proven to be beneficial to the summarization process, especially when processing unstructured documents. Extractive summarization techniques are the best studied to date, mostly supporting the English language, with a few variations to support another language. This thesis proposes a multi-language summarization platform which implements 17 algorithms, as well as the possibility of combining them. Such extractive summarization techniques are based on statistical models (e.g. TF-IDF) or language models (e.g. N.L.P. with WordNet). Furthermore, the platform is 100% unsupervised, this means that processing does not need human interference. There is a module for language identification and an intermediate translation process, in which provides support to 25 languages, so far. The experimental results obtained suggest that the platform reached acceptable summarization levels tested on news text corpora (CNN and Temário) in English, Spanish and Portuguese. Comparing with known methods, e.g. SuPor and TextRank, the platform obtained an improvement of 45% in the results for the TeMário corpus in Portuguese language remained among the best in the CNN corpus in English and similar results with the CNN corpus in Spanish, which is new and not have results of competitors yet. In addition to these results, its processing time is competitive, reaching an average of 0.11 seconds per document in English and 0.28 for the other languages tested. The platform was developed in Java, thus it is portable and can be easily reused in future research in abstractive summarization, a research area still little explored.
- Published
- 2015
31. Classificação de relações semânticas abertas baseada em similaridade de estruturas gramaticais na língua portuguesa
- Author
-
Souza, Erick Nilsen Pereira de, Claro, Daniela Barreiro, Salvador, Laís do Nascimento, and Freitas, Frederico Luiz Gonçalves de
- Subjects
Extração da informação ,Ciência da Computação ,Extração de relações abertas ,Isomor smo em subgrafos - Abstract
Submitted by Santos Davilene (davilenes@ufba.br) on 2016-05-25T12:52:22Z No. of bitstreams: 1 erick_dissertacao_versaofinal.pdf: 1670283 bytes, checksum: 3d419d4786be6400c19cb957aa228486 (MD5) Made available in DSpace on 2016-05-25T12:52:22Z (GMT). No. of bitstreams: 1 erick_dissertacao_versaofinal.pdf: 1670283 bytes, checksum: 3d419d4786be6400c19cb957aa228486 (MD5) FAPESB A Extração de Relações (ER) é uma tarefa da Extração da Informação (EI) responsável pela descoberta de relacionamentos semânticos entre conceitos em textos não estruturados. Quando a extração não é limitada por um conjunto prede nido de relações, a ER é dita Aberta (Open Relation Extraction), cujo principal desa o consiste em reduzir a proporção de extrações inválidas geradas pelos métodos que tratam desta tarefa. As soluções atuais, baseadas em aprendizado sobre um conjunto de features linguísticas especí cas, embora consigam eliminar grande parte das extra ções inválidas, possuem como desvantagem a alta dependência do idioma-alvo. Tal dependência decorre da di culdade inerente à determinação do conjunto de features mais representativo para o problema, considerando as peculiaridades de cada língua. Soluções deste tipo necessitam de bases de treinamento extensas, geralmente produzidas com auxílio de conhecimento linguístico especializado, recursos comuns na Língua Inglesa, mas inexistentes em outros idiomas. Com o objetivo de facilitar a aplicação da tarefa de ER Abertas a textos redigidos em outras línguas, é proposto um método para classi cação de relações baseado em similaridade de estruturas gramaticais, que constrói modelos a partir das estruturas morfológicas contidas nas extrações, com a nalidade de identi car padrões de similaridade que permitam distinguir relações válidas e inválidas, através da aplicação de algoritmos de detecção de isomor smo em subgrafos. Os resultados obtidos neste trabalho corroboram a hipótese de que a similaridade entre as estruturas gramaticais das relações pode ser utilizada para reduzir a quantidade de extrações inválidas, a partir de bases de exemplos com número reduzido de instâncias. Com isso, o esforço de classi cação pode ser minimizado através da substituição de conjuntos de treinamento baseados em features por conjuntos de exemplos com custo de construção inferior. Em particular, o Português do Brasil foi escolhido para a aplicação e validação da abordagem proposta, uma vez que constitui um dos vários idiomas que carecem deste tipo de recurso, sendo a abordagem precursora na extração de relações semânticas de domínio não limitado da língua. Para tanto, foi desenvolvido um modelo de extração e classi cação de relações abertas baseado em padrões gramaticais adaptados para a Língua Portuguesa, a partir do qual é possível comparar a qualidade de classi cação do método proposto com as principais abordagens baseadas em features. Resultados experimentais apresentam um aumento na qualidade de classi cação em relação aos métodos do estado da arte desta categoria, como o ReVerb [FSE11] e o WOE
- Published
- 2014
32. Ferramenta para auxiliar a construção de quizzes apoiada por uma ontologia
- Author
-
FARIAS, Fabrízio Barbosa, FREITAS, Frederico Luiz Gonçalves de, and TEDESCO, Patrícia Cabral Azevedo Restelli
- Subjects
Ontologia ,Rede Bayesiana ,Quizzes ,Regulação de Quizzes - Abstract
Atualmente espera-se que a Web se torne uma plataforma de comunicação e interação entre alunos e professores. Dessa forma o conhecimento pode ser construído de forma iterativa e coletiva. A utilização da tecnologia tem grande potencial no suporte ao ensino a distância, por exemplo: os quizzes online permitem avaliar uma grande quantidade de pessoas através de perguntas diretas e com respostas curtas. Existem inúmeras ferramentas de construções de quizzes na Web. Contudo elas possuem a desvantagem de não ter uma base de conhecimento formal, permitindo o compartilhamento, manipulação e reuso de conhecimento que estão nos quizzes. Neste ponto o uso de ontologia pode contribuir com compartilhamento, manipulação e reuso de conhecimento em nível de software ou como modelos conceituais de referência. Neste trabalho desenvolveu-se um modelo de ferramenta para construção de quizzes apoiada por uma ontologia lightweight sobre a leishmaniose. Para complementar o uso do modelo foi modelada uma rede bayesiana com o objetivo de regular um assunto de um quiz para um aluno específico. Os resultados encontrados são promissores desde a concepção, regulação e validação de quizzes por um grupo de alunos de medicina.
- Published
- 2013
33. Um método não supervisionado para o povoamento de ontologias na web
- Author
-
Oliveira, Hilário Tomaz Alves de and Freitas, Frederico Luiz Gonçalves de
- Subjects
Extração de informação baseada em ontologias ,Povoamento de ontologias ,Web semântica ,Ontologias - Abstract
A Web Semântica proposta por Berners-Lee tem o objetivo de tornar explícito o significado dos dados disponíveis na Web. Com isso, é possível que esses dados sejam processados tanto por pessoas quanto por agentes inteligentes que passam a ter acesso à semântica dos dados presentes na Web. Entretanto, para que a Web Semântica se torne uma realidade, é necessário que grande parte desses dados estejam anotados semanticamente, algo que não ocorre atualmente. Como forma de solucionar esse problema, é crescente o interesse no desenvolvimento de sistemas capazes de extrair conteúdo semântico automaticamente a partir de fontes de dados não estruturados. Nesse contexto, o objetivo desta dissertação é definir um método automático, não supervisionado e independente de domínio capaz de extrair instâncias de classes ontológicas a partir de fontes de dados não estruturados escritos em linguagem natural disponíveis na Web. A metodologia proposta é guiada por uma ontologia de entrada que define quais conceitos devem ser povoados, e por um conjunto de padrões linguísticos independentes de domínio usados para extrair e classificar os candidatos a instâncias. Com o objetivo de obter uma alta taxa de precisão, neste trabalho é proposto uma Medida de Confiança Combinada (MCC), cujo objetivo é integrar diferentes medidas e heurísticas para classificar os candidatos a instâncias extraídos. Essa medida de confiança combinada foi definida a partir dos resultados de uma exaustiva análise comparativa entre vários parâmetros analisados. O método proposto é capaz ainda de extrair novos padrões linguísticos expandindo o conjunto inicial de padrões adotados. Os resultados obtidos com os experimentos realizados em diferentes domínios indicam que a metodologia proposta é capaz de extrair uma grande quantidade de instâncias de classes, além de integrar novos padrões linguísticos a cada iteração executada.
- Published
- 2013
34. Integração de Dados Baseada em Ontologias e Raciocínio Automático: Estudo de Caso com Dados Públicos de Saúde
- Author
-
Fernandes, Roberta de Medeiros and Freitas, Frederico Luiz Gonçalves de
- Subjects
ontologias ,banco de dados ,web semântica ,epidemiologia - Abstract
No Brasil atualmente, quantidades consideráveis de dados úteis à vigilância epidemiológica encontram-se armazenados nos bancos de dados dos diversos sistemas de informações em saúde criados pelo Ministério da Saúde. Esse dados, dispostos em fontes de dados isoladas e de sintaxes heterogêneas, muitas vezes não podem ser comparados, pois representações tabulares não possuem uma semântica explícita. Além disso, as ferramentas utilizadas para a integração dessas bases de dados, preocupam-se apenas em listar os casos em comum presentes nas duas bases de dados, deixando a análise e extração das informações úteis à epidemiologia, a cargo dos profissionais treinados na ferramenta. Com base nesse cenário, esse estudo propõe uma solução de integração de dados baseada em ontologias. Pretende-se, com os dados epidemiológicos integrados através de ontologias e empregados através de ferramentas oriundas dos padrões da Web Semântica (WS), minimizar a intervenção humana no processo de análise dos dados, provendo assim maior agilidade ao acesso de informações advindas das fontes de dados de saúde. Para ilustrar a utilidade e complexidade de tal solução foi construído um estudo de caso real de integração semântica dos dados através do emprego de múltiplas ontologias com informações sobre a Classificação Estatística Internacional de Doenças e Problemas Relacionados à Saúde (CID-10), localização geográfica, doenças negligenciadas (Leishmaniose, Dengue, entre outras) e morbidade - com as fontes de dados do Ministério da Saúde (MS) citadas de forma a explorar os dados no contexto epidemiológico. Através dessa abordagem, em comparação a consultas relacionais em bancos de dados isolados, é ilustrado o enriquecimento das consultas complexas aos dados de saúde com a integração de conhecimento de diferentes naturezas (geográfico e de doenças) e utilizando raciocínio automático não-trivial.
- Published
- 2012
35. Uma Abordagem de Raciocínio Espacial em Lógica de Descrições
- Author
-
BARROS, Rafael Cordeiro de and FREITAS, Frederico Luiz Gonçalves de
- Subjects
Cálculo de Conexões de Regiões (RCC) ,Raciocínio espacial ,Ontologias ,Sistemas de Banco de Dados Espaciais (SBDE) - Abstract
Os sistemas de bancos de dados espaciais (SBDEs) são capazes de manipular dados geográficos. Sua principal aplicação é em sistemas de informações geográficas (SIGs), pois disponibilizam diversas funções, como indexação, consultas, exibição gráfica e algoritmos geométricos. Por padrão, os SBDEs realizam consultas a posteriori, ou seja, as operações envolvidas em cada consulta são executadas no momento da solicitação do usuário. Por isso, as consultas espaciais, geralmente compostas de diversos cálculos geométricos, possuem alto custo computacional. Recentemente, surgiram abordagens que processam consultas sobre dados geográficos através de raciocínio espacial. Uma das vantagens disso é a capacidade de obter resultados utilizando lógica, evitando, dessa forma, muitos cálculos geométricos. O cálculo de conexões de regiões (Region Connection Calculus - RCC) é um exemplo de formalização bastante utilizado em raciocínio espacial, pois define axiomas de relacionamentos entre regiões, em lógica de primeira ordem. Disso posto, esta dissertação propõe uma nova abordagem de raciocínio espacial utilizando lógica de descrições. Nessa abordagem, um conjunto mínimo de relacionamentos espaciais é calculado a priori, por um SBDE, e armazenado em uma ontologia, formalizada com regras de composição de relacionamentos do RCC. Dessa forma, utilizando lógica de descrições e o conjunto inicial de relacionamentos, é possível raciocinar todos os outros relacionamentos definidos na ontologia RCC. A partir de então, consultas espaciais qualitativas podem ser realizadas sem a necessidade de cálculos geométricos sobre dados espaciais. Com o objetivo de validar a abordagem proposta, também foi realizada uma aplicação com dados reais do estado de Pernambuco, de difícil obtenção e tratamento. Apesar dessas dificuldades, a aplicação pôde ser utilizada concretamente para checagem semântica no projeto NTDO (Neglected Tropical Disease Ontology), em uma aplicação que processa dados públicos integrados de doenças tropicais negligenciáveis.
- Published
- 2012
36. Models for building multiagent tutoring systems
- Author
-
Silva, Marlos Tacio, Costa, Evandro de Barros, Freitas, Frederico Luiz Gonçalves de, Almeida, Hyggo Oliveira de, Silva, Leandro Dias da, and Brito, Patrick Henrique da Silva
- Subjects
Petri, Networks of ,Mathema ,Ontology ,Petri, Redes de ,CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO [CNPQ] ,Ontologia - Abstract
This work is situated in an interdisciplinary research program on computational modeling of knowledge, focusing on one challenge in the field of Intelligent Tutoring Systems with respect to manage the complexity involved in effectively building such systems. In this context, three aspects related to the mentioned challenge were addressed: (1) lack of concrete guidelines to be used by the involved actors (i.e., authors and developers) in the process of building this environments; (2) conceptual lack between the author’s knowledge and the available tools for that end; and (3) lack of a flexible and adequate software architecture for building intelligent software entities. Thus, this work aims to present a systematic approach with models to help the construction of Multiagent Tutoring Systems based on Mathema’s architecture. From the author point of view, this systematic aims to modeling a given domain via a graph structure. Based on this structure we derive a Petri net, to check both structural and behavioral properties and a knowledge base, which will be operated by a pedagogical planner. From the viewpoint of the developer, this systematic aims to use the graph structure defined by the author to identify a set of tutor agents and, thereafter, builds these agents based on flexible software architecture. For the empirical evaluation, we develop a case study consisting in structuring a course of Computer Science. In addition, more specific studies were developed, one in the context of Computational Logic and another in the context of Machine Learning. These studies demonstrate the feasibility of using the proposal, obtaining satisfactory results in the solutions presented to answer the research questions addressed. Coordenação de Aperfeiçoamento de Pessoal de Nível Superior Este trabalho se insere na linha de pesquisa Modelos Computacionais em Educação do Programa de Pós-graduação Interdisciplinar em Modelagem Computacional de Conhecimento, observando-se que um dos grandes desafios da área de Sistemas Tutores Inteligentes continua sendo abordar adequadamente a complexidade inerente à construção desses sistemas. Nesse contexto, pode-se abordar três aspectos relacionados a esta questão, a saber: (1) carência de diretrizes que guiem os construtores (i.e., autores e desenvolvedores) envolvidos no processo de construção dos ambientes; (2) a lacuna conceitual entre o conhecimento do autor e as ferramentas disponíveis para a construção do sistema; e (3) falta de uma arquitetura de software flexível e adequada para o desenvolvimento de entidades de software inteligentes. Assim, o presente trabalho tem o objetivo de apresentar uma sistemática, dotada de modelos, para auxiliar na construção de Sistemas Tutores Multiagentes baseados na arquitetura Mathema. Do ponto de vista do autor, essa sistemática visa auxiliar na modelagem do conhecimento do domínio via uma estrutura de grafo. A partir dessa estrutura deriva-se uma rede de Petri, para verificação tanto de propriedades estruturais quanto comportamentais, e uma base de conhecimento, que irá ser operacionalizada por um planejador pedagógico. Do ponto de vista do desenvolvedor, essa sistemática visa utilizar a estrutura de grafo definida pelo autor para identificar um conjunto de agentes tutores e, a partir daí, construir efetivamente tais agentes com base em uma arquitetura de software mais flexível. Para a avaliação empírica da proposta desenvolveu-se um estudo de caso que consiste na estruturação de um curso de Ciência da Computação. Além disso, foram desenvolvidos mais estudos específicos, um no contexto de Lógica Computacional e outro no contexto de Aprendizagem de Máquina. Esses estudos mostraram a viabilidade da utilização da proposta, conseguindo obter resultados satisfatórios nas soluções apresentadas para responder as questões de pesquisa abordadas.
- Published
- 2012
37. Uma Ontologia para as Doenças Tropicais Negligenciáveis - NTDO
- Author
-
Silva, Filipe Santana da, Freitas, Frederico Luiz Gonçalves de, and Schulz, Stefan
- Subjects
PPO ,Doenças Tropicais Negligenciáveis ,Mortalidade ,Ontologia ,Representação Tabular - Abstract
Muitas aplicações não conseguem tratar a ambiguidade presente em fontes de dados e informação. Tal fato ganhou maior notoriedade a partir do desenvolvimento de tecnologias relacionadas à web semântica, principalmente com as ontologias. O estudo de modelos com certo grau de complexidade representacional relacionados às doenças infecciosas, especificamente as Doenças Tropicais Negligenciáveis (DTNs), vem gradualmente ganhando interesse por parte dos pesquisadores. O presente estudo visa representar um conjunto de conhecimento complexo sobre a transmissão de Doenças Tropicais Negligenciáveis e os possíveis processos que ocorrem a partir do desenvolvimento destas, como o falecimento de indivíduos, em uma ontologia: a NTDO (Neglected Tropical Disease Ontology). A partir do modelo básico de transmissão de doenças, incluindo vetores artrópodes, e do conteúdo tabular com a representação de vetores, patógenos, hospedeiros, locais de ocorrência e doenças causadas, foi possível descrever um Padrão de Projeto Ontológico (PPO) para a representação de tais processos, refinados e testados segundo consultas em Lógica de Descrições. Outros resultados foram encontrados a partir da representação de processos complexos relacionados ao falecimento de indivíduos por causas específicas. No presente estudo, conhecimento acerca das DTNs foi descrito a partir de informações legadas presentes em tabelas, e puderam ser expressas em uma ontologia formal. A NTDO evidencia eventos complexos com marcações temporais e sequência de processos, desde a transmissão de um patógeno ao falecimento de um indivíduo por uma doença. Assim, a NTDO pode permitir a construção de consultas inteligentes em bancos de dados de Morbidade e Mortalidade. Ainda, pode permitir uma inovação no que concerne a vigilância de casos de doenças relacionados a infecções por doenças, principalmente negligenciadas, por possibilitar o estudo de um amplo conjunto de variáveis, inerentes aos registros de morbidade e mortalidade, e a conseqüente construção de novo conhecimento sobre os dados de saúde.
- Published
- 2012
38. Conflict analysis model in collaborative learning dialogues
- Author
-
PRATA, David Nadler., COSTA, Evandro de Barros., BAKER, Ryan Shaun Joazeiro de., Rosé, Carolyn Penstein., BITTENCOURT, Guilherme., NÓBREGA, Germana M. da., ARAÚJO, Joseana Macêdo Fechine Régis de., and FREITAS, Frederico Luiz Gonçalves de.
- Subjects
Ciência da Computação ,Artificial Intelligence ,Collaborative Learning ,Textual Analysis ,Inteligência Artificial ,Análise Textual ,Processamento de Linguagem Natural ,Aprendizagem Colaborativa ,Natural Language Processing - Abstract
Submitted by Severina Oliveira (severina.sueli@ufcg.edu.br) on 2019-06-10T18:23:02Z No. of bitstreams: 1 DAVID NADLER PRATA-TESE (PPGCC) 2008.pdf: 2500313 bytes, checksum: 3503b491651280fca45090cff68c6668 (MD5) Made available in DSpace on 2019-06-10T18:23:02Z (GMT). No. of bitstreams: 1 DAVID NADLER PRATA-TESE (PPGCC) 2008.pdf: 2500313 bytes, checksum: 3503b491651280fca45090cff68c6668 (MD5) Previous issue date: 2008-12-19 Estudantes necessitam não somente de habilidades cognitivas, mas também sociais que possam lhes permitir compartilhar o conhecimento em grupos de trabalho devido à complexidade das tarefas. Por sua vez, a comunicação bidirecional da Internet está possibilitando um meio efetivo para viabilizar novas formas de aprendizagem. Nesse cenário, há uma abrangente questão levantada que marcou o início dessa pesquisa de doutorado. Como avaliar em um ambiente de aprendizagem apoiado por computadores? A jornada para responder essa questão alcançou seu ponto máximo com o desenvolvimento de um modelo de análise de diálogos para ambientes de aprendizagem colaborativa apoiada por computadores. O trabalho se iniciou com uma pesquisa bibliográfica, análise crítica e entrevistas sobre a avaliação da aprendizagem do estudante. Um framework conceitual foi concebido considerando as teorias construtivistas e a função do professor como facilitador da aprendizagem. Foram conduzidos estudos de técnicas de inteligência artificial na educação e análise semântica de textos. A investigação em ambientes colaborativos de ensino/aprendizagem levou a um estudo sobre que tipo de interação pode melhorar a aprendizagem, dentro de uma tarefa de aprendizagem colaborativa, em termos dos efeitos dos atos da fala para o transmissor e receptor. Dentro da teoria Piagetiana, o conflito cognitivo de idéias entre estudantes é visto como benéfico para a aprendizagem. Quais os comportamentos interpessoais que levam a uma aprendizagem mais efetiva, porém, é um debate aberto, com algumas pesquisas argüindo que a cooperação é mais efetiva e outros argumentam que o conflito interpessoal é uma parte natural da aprendizagem colaborativa. O conflito interpessoal pode em alguns casos ser associado positivamente com aprendizagem. Os resultados obtidos sugerem uma conexão positiva entre conflito interpessoal e aprendizagem, indicando que o conflito interpessoal pode ter um lugar mais positivo na aprendizagem colaborativa do que muitos estudos contemporâneos sugerem. Os resultados foram obtidos de uma análise de protocolo em diálogos dentro de um ambiente de aprendizagem colaborativa, apoiada por computador, no domínio de frações em matemática. Para executar essa investigação, foi desenvolvido um modelo de interação de diálogos. Esse modelo explora características da interação dos diálogos pela análise de falhas no conhecimento dos estudantes, e uma investigação das inter-relações entre conflitos cognitivos e sociais fundamentada nas teorias Piagetianas. O modelo é fundamentado nos atos da fala de Austin, combinado com a teoria de agentes BDI (Belief- Desire-Intention). O objetivo final desse modelo é avaliar a aprendizagem do estudante em ambientes colaborativos, por meio da inter-relação entre conflitos cognitivos e interpessoais, com a intenção de dar suporte aos agentes pedagógicos para intervir nos diálogos, mantendo a colaboração produtiva. Students not only must have cognitive skills, but also social ones that enable them to share knowledge in collaboration, due to the increasing complexity of the knowledge they must learn. The internet is transforming everything, including education. Given this situation, a question emerged that formed the doctoral project presented here: what is the difference between assessment in traditional classrooms and computer supported assessment for collaborative learning, and what student behaviors should be assessed in collaborative learning? Our efforts to answer this question led to a model of dialogue acts in Computer Supported Collaborative Learning (CSCL). The work started from a survey of student learning assessment in online collaborative learning. A framework was conceived, based on constructivist theories and the role of the teacher as a facilitator of the learning. Studies using techniques from artificial intelligence in education were conducted with collaborative learning software. The investigation of collaborative learning led to a study about what type of interaction could improve learning within a collaborative learning task, in terms of the effects of specific speech acts on both the actor and their collaborative partner. Within Piagetian theory, the cognitive conflict of ideas between students is seen as beneficial for learning. Which sorts of interpersonal behaviors lead to most effective learning, however, is open to debate, with some researchers arguing that cooperation is most effective and others arguing that interpersonal conflict is a natural part of collaborative learning. In this study, we investigate whether interpersonal conflict, particularly insults, can in some cases be associated with positive learning. Our results suggest a positive connection between interpersonal conflict and learning, indicating that interpersonal conflict may have a more positive place in collaborative learning than many contemporary accounts suggest. The results were obtained from a protocol analysis on dialogues within a CSCL environment in the mathematical domain of fractions. To perform this investigation we developed a model of dialogue interaction. The model is grounded on Austin’s speech acts model, combined with Belief-Desire-Intention agency theory. This model explores dialogue interaction features by the analysis of the student’s acts, and an investigation of the interrelation between cognitive and social conflict of ideas based on Piagetian theory. The long-term goal of this model is to assess the student learning in a collaborative learning environment through the interrelation between interpersonal and cognitive conflicts, supporting the pedagogical agents in intervening in dialogue in order to keep collaboration productive.
- Published
- 2008
39. Information classification using ontologies
- Author
-
Silva, Eunice Palmeira da, Freitas, Frederico Luiz Gonçalves de, FREITAS, F., Costa, Evandro de Barros, COSTA, E. B., Bittencourt, Guilherme, and BITTENCOURT, G.
- Subjects
Information classification ,Artificial intelligence ,Ontologies ,Inteligência artificial ,Ontologia ,Sistemas multiagentes ,Sistemas de recuperação da informação - Classificação ,CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO::TEORIA DA COMPUTACAO::COMPUTABILIDADE E MODELOS DE COMPUTACAO [CNPQ] - Abstract
Although the positive aspects that Internet possesses and the potential it permits, there is a problematic that consists on finding needed pieces of information among the deluge of available documents on the web. Tools that are able to semantically treat the information contained in the documents which follows a structure only focused on data presentation are still lacking. The MASTER-Web system solves the problem of integrated extraction of content-pages that belong to classes which form a cluster. In this context, we propose the extension of this tool to the scientific articles classification based on ontologies. To achieve this goal, an ontology for the Artificial Intelligence domain was constructed and rule-based classification strategies were adopeted. The approach presented here employs this ontology and textual classification techniques to extract useful pieces of information from the articles in order to infer to which themes it is about. This combination led to significative results: e.g. in the texts, the system is able to identify the specific subdivisions of AI and entails conclusions, distinguishing correctlly the themes of the articles from the ones that are briefiy mentioned in the texts. The application of simple techniques and a detailed ontology lead to promising classification results, independently of the document structure, proposing an eficient and plausible solution. Coordenação de Aperfeiçoamento de Pessoal de Nível Superior Apesar dos aspectos positivos que a Internet possui e do potencial que permite, existe a problemática, que consiste em encontrar a informação necessária em meio a uma enorme quantidade de documentos disponíveis na rede. Faltam, ainda, ferramentas capazes de tratar semanticamente a informação contida em documentos que seguem uma estrutura preocupada apenas com a exibição dos seus dados. O sistema MASTERWeb, resolve o problema da extração integrada de pá¡ginas-conteúdo pertencentes às classes que integram um grupo (cluster ). Neste contexto propomos a extensão dessa ferramenta para a classificação de artigos científicos baseada em ontologias. Para isso foi construída uma ontologia do domínio de Inteligência Artificial e adotadas estratégias de classificação utilizando sistemas de regras. A abordagem apresentada aqui, emprega esta ontologia e técnicas de classificação textual para extrair dos artigos informações úteis, e daí inferir sobre os temas tratados nestes artigos. Essa combinação conduziu a resultados bastante significativos: por exemplo, o sistema é capaz de identificar no texto as subáreas de IA que ele aborda e deriva conclusões, distinguindo os assuntos tratados pelo artigo daqueles que são brevemente citados no texto. A aplicação de técnicas simples e uma ontologia bem formada levam a resultados de classificação promissores, independentemente da estrutura do documento, propondo uma solução eficiente e plausível.
- Published
- 2006
40. Machine learning in an environment for automated negotiations
- Author
-
OLIVEIRA, Rômulo Nunes de., COSTA, Evandro de Barros., GOMES, Herman Martins., LULA JÚNIOR, Bernardo., and FREITAS, Frederico Luiz Gonçalves de.
- Subjects
Machine Learning ,Ciência da Computação ,Negociação Automatizada ,Neural Networks ,Computational and Cognitive Models ,Artificial Intelligence ,Redes Neurais ,Automated Trading ,Inteligência Artificial ,Aprendizagem de Máquina ,Modelos Computacionais e Cognitivos - Abstract
Submitted by Severina Oliveira (severina.sueli@ufcg.edu.br) on 2019-07-09T19:47:15Z No. of bitstreams: 1 RÔMULO NUNES DE OLIVEIRA-DISSERTAÇÃO (PPGCC) 2006.pdf: 1847061 bytes, checksum: 268a4ee790d22b5101c154c65bd1abbe (MD5) Made available in DSpace on 2019-07-09T19:47:15Z (GMT). No. of bitstreams: 1 RÔMULO NUNES DE OLIVEIRA-DISSERTAÇÃO (PPGCC) 2006.pdf: 1847061 bytes, checksum: 268a4ee790d22b5101c154c65bd1abbe (MD5) Previous issue date: 2006-03-28 Capes A automatização do processo de negociação é um dos tópicos importantes e desafiadores no contexto da pesquisa em IA aplicada ao comércio eletrônico. Particularmente, um dos problemas relacionados à concepção de agentes de software negociadores diz respeito a dotá-los da capacidade de aprender e se adaptar ao dinamismo normalmente requerido no processo de negociação. Neste trabalho, propõe-se um ambiente para construção de agentes inteligentes dotados das capacidades de negociar e aprender. Foram realizados dois experimentos para demonstrar a factibilidade da nossa proposta. Os experimentos mostraram a capacidade de aprendizagem dos agentes, segundo as técnicas empregadas: Redes Neurais, Aprendizagem por Reforço (Q-learning), Raciocínio Baseado em Regras e Raciocínio Baseado em Casos. Automated negotiation is a hot research topic in AI applied to e-commerce. Particularly, one of the problems concerning the design of negotiation agents is to enclow them with learn ing and adaptation capabilities in order to face the dynamism often required by negotiation processes. This dissertation proposes an environment for building intelligent agents capable of ne gotiating and learning. Two experiments were done in order to demonstrate the feasibility of the proposed environment. The experiments show that the agents learned during the inter action process according to the used techniques: Neural networks, Q-learning, Rule-based Reasoning and Case-based Reasoning.
- Published
- 2006
Catalog
Discovery Service for Jio Institute Digital Library
For full access to our library's resources, please sign in.