31 results on '"Tunga, Burcu"'
Search Results
2. High dimensional model representation median filter for removing salt and pepper noise
- Author
-
Kacar, Sena and Tunga, Burcu
- Published
- 2024
- Full Text
- View/download PDF
3. Machine learning based tomographic image reconstruction technique to detect hollows in wood
- Author
-
Yıldızcan, Ecem Nur, Arı, Mehmet Erdi, Tunga, Burcu, Gelir, Ali, Kurul, Fatih, As, Nusret, and Dündar, Türker
- Published
- 2024
- Full Text
- View/download PDF
4. Contrast and content preserving HDMR-based color-to-gray conversion
- Author
-
Ceylan, Ayça, Korkmaz Özay, Evrim, and Tunga, Burcu
- Published
- 2024
- Full Text
- View/download PDF
5. A novel multistage CAD system for breast cancer diagnosis
- Author
-
Karacan, Kübra, Uyar, Tevfik, Tunga, Burcu, and Tunga, M. Alper
- Published
- 2023
- Full Text
- View/download PDF
6. Hyperspectral image denoising with enhanced multivariance product representation
- Author
-
Korkmaz Özay, Evrim and Tunga, Burcu
- Published
- 2022
- Full Text
- View/download PDF
7. DeepEMPR: coffee leaf disease detection with deep learning and enhanced multivariance product representation.
- Author
-
Topal, Ahmet, Tunga, Burcu, and Tirkolaee, Erfan Babaee
- Subjects
CONVOLUTIONAL neural networks ,HIGH-dimensional model representation ,SUSTAINABLE agriculture ,ARTIFICIAL intelligence ,PLANT diseases ,DEEP learning - Abstract
Plant diseases threaten agricultural sustainability by reducing crop yields. Rapid and accurate disease identification is crucial for effective management. Recent advancements in artificial intelligence (AI) have facilitated the development of automated systems for disease detection. This study focuses on enhancing the classification of diseases and estimating their severity in coffee leaf images. To do so, we propose a novel approach as the preprocessing step for the classification in which enhanced multivariance product representation (EMPR) is used to decompose the considered image into components, a new image is constructed using some of those components, and the contrast of the new image is enhanced by applying high-dimensional model representation (HDMR) to highlight the diseased parts of the leaves. Popular convolutional neural network (CNN) architectures, including AlexNet, VGG16, and ResNet50, are evaluated. Results show that VGG16 achieves the highest classification accuracy of approximately 96%, while all models perform well in predicting disease severity levels, with accuracies exceeding 85%. Notably, the ResNet50 model achieves accuracy levels surpassing 90%. This research contributes to the advancement of automated crop health management systems. [ABSTRACT FROM AUTHOR]
- Published
- 2024
- Full Text
- View/download PDF
8. A novel method for multispectral image pansharpening based on high dimensional model representation
- Author
-
Korkmaz Özay, Evrim and Tunga, Burcu
- Published
- 2021
- Full Text
- View/download PDF
9. A hybrid algorithm with cluster analysis in modelling high dimensional data
- Author
-
Tunga, Burcu
- Published
- 2018
- Full Text
- View/download PDF
10. Digital image decomposition and contrast enhancement using high-dimensional model representation
- Author
-
Tunga, Burcu and Koçanaoğulları, Aziz
- Published
- 2017
- Full Text
- View/download PDF
11. A novel approximation method for multivariate data partitioning : Fluctuation free integration based HDMR
- Author
-
Tunga, Burcu and Demiralp, Metin
- Published
- 2012
- Full Text
- View/download PDF
12. Weight optimization in HDMR with perturbation expansion method
- Author
-
Tunga, Burcu and Demiralp, Metin
- Published
- 2015
- Full Text
- View/download PDF
13. An efficient feature extraction approach for hyperspectral images using wavelet high dimensional model representation
- Author
-
Tuna, Suha, Ozay, Evrim Korkmaz, Tunga, Burcu, Gurvit, Ercan, Tunga, M. Alper, İstinye Üniversitesi, Mühendislik ve Doğa Bilimleri Fakültesi, Bilgisayar Mühendisliği Bölümü, Tunga, Mehmet Alper, and N-9306-2013
- Subjects
General Earth and Planetary Sciences ,Hyperspectral Data ,High Dimensional Model Representation ,Wavelets ,Classification ,Feature Extraction - Abstract
Hyperspectral (HS) Imagery helps to capture information using specialized sensors to extract detailed data at numerous narrow wavelengths. Hyperspectral imaging provides both spatial and spectral characteristics of regions or objects for subsequent analysis. Unfortunately, various noise sources decrease the interpretability of these images as well as the correlation between neighbouring pixels, hence both reduce the classification performance. This study focuses on developing an ensemble algorithm that enables to denoise the spectral signals while decorrelating the spatio-spectral features concurrently. The developed method is called Wavelet High Dimensional Model (W-HDMR) and combines High Dimensional Model Representation (HDMR) with the Discrete Wavelet Transform (DWT). Through W-HDMR, denoised and decorrelated features are extracted from the HS cubes. HDMR decorrelates each dimension in HS data while DWT denoises the spectral signals. The classification performance of W-HDMR as a new feature extraction technique for HS images is assessed by exploiting a Support Vector Machines algorithm. The results indicate that the proposed W-HDMR method is an efficient feature extraction technique and is considered an adequate tool in the HS classification problem. WOS:000897079200001 Q2
- Published
- 2022
14. A novel piecewise multivariate function approximation method via universal matrix representation
- Author
-
Tuna, Süha and Tunga, Burcu
- Published
- 2013
- Full Text
- View/download PDF
15. A probabilistic evolution approach trilogy, part 3: temporal variation of state variable expectation values from Liouville equation perspective
- Author
-
Demiralp, Metin and Tunga, Burcu
- Published
- 2013
- Full Text
- View/download PDF
16. Hybrid HDMR method with an optimized hybridity parameter in multivariate function representation
- Author
-
Tunga, Burcu and Demiralp, Metin
- Published
- 2012
- Full Text
- View/download PDF
17. Constancy maximization based weight optimization in high dimensional model representation for multivariate functions
- Author
-
Tunga, Burcu and Demiralp, Metin
- Published
- 2011
- Full Text
- View/download PDF
18. Fluctuation free multivariate integration based logarithmic HDMR in multivariate function representation
- Author
-
Tunga, Burcu and Demiralp, Metin
- Published
- 2011
- Full Text
- View/download PDF
19. The influence of the support functions on the quality of enhanced multivariance product representation
- Author
-
Tunga, Burcu and Demiralp, Metin
- Published
- 2010
- Full Text
- View/download PDF
20. Constancy maximization based weight optimization in high dimensional model representation
- Author
-
Tunga, Burcu and Demiralp, Metin
- Published
- 2009
- Full Text
- View/download PDF
21. High Dimensional Model Representation (HDMR) with Clustering for Image Retrieval.
- Author
-
Karcılı, Ayşegül and Tunga, Burcu
- Subjects
- *
HIGH-dimensional model representation , *IMAGE retrieval , *DECOMPOSITION method , *DIGITAL images , *IMAGE processing - Abstract
Image retrieval continues to hold an important place in today's extremely fast growing technology. In this field, the accurate image retrieval with high speed is critical. In this study, to achieve this important issue we developed a novel method with the help of High Dimensional Model Representation (HDMR) philosophy. HDMR is a decomposition method used to solve different scientific problems. To test the performance of the new method we used Columbia Object Image Library (COIL100) and obtained the encouraging results. These results are given in the findings section. [ABSTRACT FROM AUTHOR]
- Published
- 2017
- Full Text
- View/download PDF
22. Digital image decomposition and contrast enhancement using high-dimensional model representation.
- Author
-
Tunga, Burcu and Koçanaoğulları, Aziz
- Abstract
Contrast is the difference in brightness and color that makes an object distinguishable. Contrast enhancement (CE) is a technique used to improve the visual quality of an image for human recognition. This study proposes a new methodology called high-dimensional model representation (HDMR) for enhancing contrast in digital images. The novelty of HDMR is that the method first decomposes the image into its dimensions, then represents the image using the superposition of decomposed components and finally enhances contrast in the image by adding certain HDMR components to the representation. HDMR has high performance as a CE technique in both grayscale and color images when compared with some state-of-the-art methods. [ABSTRACT FROM AUTHOR]
- Published
- 2018
- Full Text
- View/download PDF
23. Separate Multinode Ascending Derivatives Expansion (Demiralp's SMADE): Basis Polynomials.
- Author
-
Tunga, Burcu
- Subjects
- *
POLYNOMIALS , *MATHEMATICAL expansion , *RECURSION theory , *UNIVARIATE analysis , *MATHEMATICAL bounds , *STOCHASTIC convergence - Abstract
Separate Multinode Ascending Derivatives Expansion (SMADE) is a recently developed function representation method based on "Separate Node Ascending Derivatives Expansion (SNADE)" which was proposed by Prof. Demiralp. For this reason we call this method in this work "Demiralp's SMADE". The basic difference between two methods is that SNADE uses one separate node for each derivative to construct the expansion while SMADE uses multinodes for the same entities even though the separate nature of the nodes is not mandatory. This study focuses on SMADE both to present all important details of the method including its formulation and its basis polynomials. [ABSTRACT FROM AUTHOR]
- Published
- 2015
- Full Text
- View/download PDF
24. Logarithmic High Dimensional Model Representation in Image Processing.
- Author
-
Tunga, Burcu
- Subjects
- *
IMAGE processing , *HIGH-dimensional model representation , *LOGARITHMS , *MULTIVARIATE analysis , *APPROXIMATION theory , *DATA analysis - Abstract
Logarithmic HDMR is an HDMR based method and it allows us to reconstruct an analytical structure for a given multivariate analytical function in terms of less variate components. In this study, we develop a method to model multivariate data through Logarithmic HDMR and we use this method to make an approximation to the given original image. That is, we deal with the reconstruction of an image by using Logarithmic HDMR philosophy and we reach very promising results. [ABSTRACT FROM AUTHOR]
- Published
- 2014
- Full Text
- View/download PDF
25. Support function influences on the univariance of the enhanced multivariance product representation.
- Author
-
Tunga, Burcu and Demiralp, Metin
- Subjects
- *
MULTIVARIATE analysis , *FUNCTIONAL analysis , *APPROXIMATION theory , *UNIVARIATE analysis , *NUMERICAL analysis , *ANALYSIS of variance - Abstract
This paper focuses on recently proposed Enhanced Multivariance Product Representation (EMPR) for multivariate functions. This method has been proposed to approximate the multivariate functions by certain additive less variate functions via support functions to get better quality than HDMR's. For this purpose, EMPR disintegrates a multivariate function to components which are respectively constant, univariate, bivariate and so on in ascending multivariance. This work aims at the investigation of the EMPR truncation qualities with respect to the selection of the support functions. [ABSTRACT FROM AUTHOR]
- Published
- 2012
- Full Text
- View/download PDF
26. Probabilistic evolutions in classical dynamics: Conicalization and block triangularization of Lennard-Jones systems.
- Author
-
Tunga, Burcu and Demiralp, Metin
- Subjects
- *
PROBABILITY theory , *HAMILTON spaces , *TRIANGULARIZATION (Mathematics) , *MATHEMATICAL functions , *APPROXIMATION theory , *NUMBER theory , *NUMERICAL solutions to equations of motion - Abstract
This work aims at the solution of two-body problem with Lennard-Jones potential via recently developed Probabilistic Evolution Approach (PEA) proposed by M. Demiralp for explicit ODEs, as final target. PEA has been quite well developed and it is well-known that the conicality in descriptive functions facilitates the construction of the truncation approximants. Conicality, if does not exist, can be obtained by using the space extension method at the expense of an increase in the number of the unknowns and may bring the block triangularity which is another important facility to investigate and control the properties of PEA. In space extension we construct the Hamilton equations of the motion for the system first and then define new appropriate unknown functions depending on the existing unknowns such that the resulting ODEs to be used in PEA become conical. This attempt provides us with the block triangularity at the same time. [ABSTRACT FROM AUTHOR]
- Published
- 2012
- Full Text
- View/download PDF
27. Basic Issues in Vector High Dimensional Model Representation.
- Author
-
Tunga, Burcu and Demiralp, Metin
- Subjects
- *
VECTOR analysis , *DIMENSIONAL analysis , *MULTIVARIATE analysis , *COMPUTATIONAL complexity , *PROBLEM solving - Abstract
A multivariate modelling may involve a set of multivariate functions. A vector valued function structure can be used to mathematically express the given problem and each multivariate function can be considered as an element of this vector. This work aims to construct a new approach representing the elements of this vector structure in terms of less-variate functions to reduce the computational complexity. For this purpose, a new method based on the plain High Dimensional Model Representation (HDMR) philosophy is developed. The basic concepts of this method and several illustrative numerical implementations are given here. [ABSTRACT FROM AUTHOR]
- Published
- 2011
- Full Text
- View/download PDF
28. Fluctuationlessness Approximation Based Multivariate Integration in Hybrid High Dimensional Model Representation.
- Author
-
Tunga, Burcu and Demiralp, Metin
- Subjects
- *
APPROXIMATION theory , *POLYNOMIALS , *FUNCTIONAL analysis , *MATHEMATICAL functions , *MATHEMATICS - Abstract
This paper focuses on multivariate integration via fluctuationlessness approximation in hybrid High Dimensional Model Representation (HHDMR) for multivariate functions. The basic idea here is to bypass the N—tuple integration with the help of the fluctuationlessness approximation as a quite powerful method for integral evaluations. This method decreases the computational complexity of the HHDMR method in computer based applications. Furthermore, by using this method, we are able to get rid of evaluating complicated integral structures. [ABSTRACT FROM AUTHOR]
- Published
- 2008
- Full Text
- View/download PDF
29. A novel approximation method for multivariate data partitioningFluctuation free integration based HDMR.
- Author
-
Tunga, Burcu and Demiralp, Metin
- Subjects
APPROXIMATION theory ,HIGH-dimensional model representation ,INTERPOLATION ,MULTIVARIATE analysis ,MATHEMATICAL models - Abstract
Purpose – The plain High Dimensional Model Representation (HDMR) method needs Dirac delta type weights to partition the given multivariate data set for modelling an interpolation problem. Dirac delta type weight imposes a different importance level to each node of this set during the partitioning procedure which directly effects the performance of HDMR. The purpose of this paper is to develop a new method by using fluctuation free integration and HDMR methods to obtain optimized weight factors needed for identifying these importance levels for the multivariate data partitioning and modelling procedure. Design/methodology/approach – A common problem in multivariate interpolation problems where the sought function values are given at the nodes of a rectangular prismatic grid is to determine an analytical structure for the function under consideration. As the multivariance of an interpolation problem increases, incompletenesses appear in standard numerical methods and memory limitations in computer-based applications. To overcome the multivariance problems, it is better to deal with less-variate structures. HDMR methods which are based on divide-and-conquer philosophy can be used for this purpose. This corresponds to multivariate data partitioning in which at most univariate components of the Plain HDMR are taken into consideration. To obtain these components there exist a number of integrals to be evaluated and the Fluctuation Free Integration method is used to obtain the results of these integrals. This new form of HDMR integrated with Fluctuation Free Integration also allows the Dirac delta type weight usage in multivariate data partitioning to be discarded and to optimize the weight factors corresponding to the importance level of each node of the given set. Findings – The method developed in this study is applied to the six numerical examples in which there exist different structures and very encouraging results were obtained. In addition, the new method is compared with the other methods which include Dirac delta type weight function and the obtained results are given in the numerical implementations section. Originality/value – The authors' new method allows an optimized weight structure in modelling to be determined in the given problem, instead of imposing the use of a certain weight function such as Dirac delta type weight. This allows the HDMR philosophy to have the chance of a flexible weight utilization in multivariate data modelling problems. [ABSTRACT FROM AUTHOR]
- Published
- 2012
- Full Text
- View/download PDF
30. New model for forecasting financial data
- Author
-
Seymen Uzun, Özgün, Tunga, Burcu, and Matematik Mühendisliği Ana Bilim Dalı
- Subjects
Matematik ,Mathematics - Abstract
Bir zaman serisi, bir değerin zaman içerisinde sıralanmış ölçümlerinin bir kümesi olarak tanımlanabilir. Zaman serileri trend, mevsimsellik, çevresel, düzensizlik olmak üzere dört bileşenden oluşur. Zaman serilerinin önemli bir süreçlerinden birisi tahmin yapmadır. Geçmişteki ve şimdiki verileri kullanarak ve genellikle trendlerin analizi ile geleceğe yönelik öngörülerde bulunma sürecidir. Finansal zaman serileri doğrusal değildir ve karmaşıktır. Bu nedenle, finansal zaman serilerinin tahmin edilmesi zordur. Borsa fiyat endeksinin tahmini ve endeksin hareketi, finansal zaman serileri ile ilgili en yaygın araştırma alanlarından biridir. Ayrıca, hisse senedi fiyat endeksi ekonomik, sosyal, politik olaylar gibi birçok değişik faktörden etkilenmektedir. Bu sorunlara rağmen, hisse senedi endeksi tahmini son zamanlarda uzmanlar ve akademisyenler için en popüler sorunlardan biri olmuştur.Teknik analiz, muhtemel gelecekteki fiyatları belirlemek için son fiyatları inceleme olarak tanımlanabilir. Hareketli ortalamalar metodu ise en eski ve en popüler teknik analiz araçlarından biridir. Hareketli bir ortalama, belirli bir zamanda olan fiyatların ortalamasıdır. Beş popüler hareketli ortalama türü vardır: basit, üstel, üçgen, değişken ve ağırlıklı. Bu hareketli ortalamalar arasındaki en önemli fark, son zamanlara yakın verilere verilen ağırlıktır. Hareketli ortalama sürecinde, her bir gecikmeli hata terimi onun şimdiki değerini etkilemektedir. Hareketli ortalama yakınsak ıraksak indikatörü (Moving Average Convergence Divergence) teknik analizde en yaygın kullanılan teknik göstergedir. Hesaplanırken üstel hareketli ortalama kullanılır. Verilerin 26 günlük ve 12 günlük üstel hareketli ortalama değerleri hesaplanır. Hesaplanan 26 ve 12 günlük hareketli ortalamaların farkı MACD çizgisini verir. Sinyal çizgisi ise, MACD 'nin 9 günlük üstel hareketli ortalamasından elde edilir. Uzmanlar, MACD teknik analiz yöntemini kullanarak alım-satım (ayı-boğa) davranışına karar vermek için yorumda bulunurlar.Vektör Otoregresif model (VAR), çok değişkenli zaman serileri için literatürdeki en bilinen tahmin etme modelidir. Çok değişkenli zaman serilerinde en önemli amaç serinin bileşenleri arasında öngörülebilir yani durağan lineer birleşimin araştırılmasıdır. Başka bir deyişle, serinin bileşenleri arasındaki kointegrasyon ilişkisinin belirlenmesidir. Böyle bir ilişki belirlendiği zaman, serinin durağan lineer birleşimleri üzerinden istatistiki sonuç çıkarımlar yapılabilir. Vektör Otoregresif modelinde, endojen (bağımlı değişken) değer, tahmin edilecek eksojen (bağımsız değişken) değerler ile modellenir. İçsel değişkenlerin birlikte ele alındığı eş anlı denklem modeli olan Vektör otoregresif model, Sims tarafından 1980 yılında geliştirilmiştir. VAR modelinde değişkenler içsel ve dışsal olarak ayrılmadığından belirlenme sorunu söz konusu değildir. Bu modelde, bütün değişkenler içsel kabul edilir ve bir değişken kendisinin ve modelde yer alan diğer değişkenlerin gecikmeli değerlerinin fonksiyonu olarak tanımlanır.Bu tezde, finansal verilerin öngörüsü için oluşturulmuş yeni bir model olan Exponential Moving Average Vector Autoregressive Model (EMAVAR) açıklanmıştır. EMAVAR modeli, Moving Average Convergence Divergence teknik analiz indikatörü (MACD) ve Vector Autoregressive (VAR) modeli kullanılarak oluşturulmuştur.EMAVAR modelinde, MACD işleminin sonucu olarak farklı seriler oluşturulur. Daha sonra, bu serilerden iki tanesi bir sonraki değeri tahmin etmek için VAR modelinde bağımsız değişken olarak kullanılır.EMAVAR modelinin detayları şu şekilde açıklanabilir. Öncelikle Kamuoyu Aydınlanma Platformundan elde edilen 2012 – 2018 yılları arasındaki veriler (5- çalışma günü) alınmıştır. Elde edilen bu verilerde tatil günleri nedeniyle oluşan eksik değerler olduğu tespit edilmiştir. Daha sağlıklı tahminler elde edilmesi için veriler doğrusal enterpolasyon uygulanarak ortadan kaldırılmıştır ve bu süreç devam ettirilmiştir. Ayrıca, alınan 6 yıllık tam veri seti, tarihsel verilerin bağımsızlığını göstermek amacıyla 1 yıl ve 2 yıl bölümlerine ayrılmıştır. Daha sonra, MACD işlemi ayrı ayrı bu ayrılan veri bolümlerine uygulanmıştır. MACD 'den elde edilen tüm serilerin durağanlığı (ilgili serilerde birim kökün var olup olmadığı), Augmented Dickey – Fuller Birim Kök Testi ile tespit edilmiştir. Zaman serilerinin durağan olması olarak ifade edilen durum, zaman içinde varyansın ve ortalamanın sabit olması ve gecikmeli iki zaman periodundaki değişkenlerin ko-varyansının değişkenler arasındaki gecikmeye bağlı olup zamana bağlı olmaması olarak tanımlanabilir. MACD işleminden sonra elede edilen macd ve signal serileri bağımsız değişken olarak Vektör Otoregresif modelde kullanılmıştır. Bu uygulama farklı yıllardan oluşan serilere ayrı ayrı olarak yapılmıştır.Ek olarak, zaman serisi modellemelerinde kullanılan diğer modellerden biri Autoregression (AR) modelidir. Otoregresyon, gelecekteki keyfi bir dönem sayısını tahmin etmek için kullanılabilir. Bir AR modelinde, bağımlı değişken geçmişteki değerinin bir fonksiyonudur. Birçok zaman serisi de bu süreci içermektedir. Bu tezde AR modeli, EMAVAR modeli ile daha iyi tahmin verdiğini göstermek için aynı veri setlerinde kullanılmıştır.Tezin ilk ve ikinci bölümünde finansal zaman serilerinin öngörüsü için yapılan çalışmalar incelenmiş ve analiz edilmiştir. Daha sonra tezde kullanılacak olan modellerin matematiksel araştırmalarına ve destekleyici literatür bilgilerine Bölüm 3 'te yer verilmiştir. Korelasyon fonksiyonları, durağanlık tanımı ve tespit etme testleri, modellemenin tanımı, MACD teknik analiz indikatörü, AR modelinin detaylarına yine aynı bölümde yer verilmiştir.Tezin 4. Bölümünde finansal verilerin öngörüsü için oluşturulan yeni model EMAVAR 'ın detaylı açıklamaları mevcuttur. Farklı yıllardan oluşturduğumuz veri setlerine EMAVAR modelinin uygulanmasının detaylı adımları Bölüm 5'te yer almaktadır. Karşılaştırma amacıyla kullanıdığımuız AR modeli uygulamalarının detayları da yine bu bölümdedir. Son olarak, Bölüm 6 'da EMAVAR ve AR modelinin karşılaştırmalı sonuç tabloları bulunmaktadır. Bu tezin amacı, finansal serilerin öngörüsünde doğruluk tahminini iyileştirmek için yeni bir model oluşturmaktır.Özetle, bu tezde Exponential Moving Average Vector Autoregressive (EMAVAR) modeli, AR modeli ile karşılaştırılmıştır. Yapılan araştırmalar ve deneylerden elde edilen sonuçlara göre EMAVAR modeli 2 yıllık veri üzerinde diğerlerinden daha bulunmuştur. Forecasting is a significant process of the time series. It is the process of making predictions of the future by using the past and present data and generally by analysis of trends. Forecasting of stock price index and its movement are one of the most common research field about the financial time series. The financial time series are complicated and non-linear. By this cause, forecast financial time series is difficult. Additionally, the stock price index is affected by many factors like economic, social, political events in complicated manner. Although these issues, the forecast of stock index is one of most remarkable researches for many industrial experts and scholars. In this thesis, the new model EMAVAR is explained. The EMAVAR model is combined MACD and VAR model. Technical analysis is the process of examining a recent price to determine possible future prices. The moving averages is one of the oldest and most popular technical analysis tools. A moving average is the average of prices at a given time. There are five popular types of moving average: simple, exponential, triangular, variable and weighted. The important difference between these MAs is weight to the most recent data. MACD is the most common technical indicator in technical analysis. It uses Exponential Moving Average (EMA) while calculating. 26-days EMA and 12-days EMA of the data is calculated. Then, their subtraction of these EMAs gives the MACD line. The signal line is obtained from 9-days EMA of MACD. When MACD is applied, the experts comment to decide buy-sell (bearish-bullish) behavior.VAR is the most familiar forecasting model in the literature for multivariate time series. In VAR process, the endogenous (dependent variable) value is modeled with the exogenous (independent variable) values to estimate. VAR is used for multivariate time series. The purpose of thesis is to construct a new model to improve the accurancy estimation.The EMAVAR model uses different exogeneous variables which are occurred by the result of MACD process. Afterwards, exogeneous variable series is used in VAR process for anticipate the next value. The details of EMAVAR model is explained like as follows. First of all, obtained data from KAP which is the daily (5-days a week) closing stock prices of BIST-100 and the banking sector between 2012-2018, is rearranged to make healthy forecast. Missing data (by occurred because of public holidays) is eliminated with linear interpolation and process have been continued. Additionally, 6 years full data set is divided 1 year and 2 years parts with the purpose of the independence of historical data. After that, MACD process is applied on different data arrengement seperately. The stationarity of all obtained series from MACD is recognized with Unit Root Test. Finally, the VAR model is applied on this different series. In addition, one of other forecasting of time series model is Autoregression (AR) model. The autoregression can be used to forecast an arbitrary number of periods into the future. AR is used on the same data sets to compare and show the good estimation of EMAVAR model. To sum up, EMAVAR model is compared to AR model. According to the result of researches and experiments, EMAVAR model is better than the other is in 2 years. 81
- Published
- 2019
31. Development of a smart connected application for performance tuning on HPC
- Author
-
Kösedağ, Meltem, Tunga, Burcu, and Kimya Mühendisliği Ana Bilim Dalı
- Subjects
Computer Engineering and Computer Science and Control ,Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontrol - Abstract
Veri bilimi, karmaşık problemleri analitik olarak anlamak ve çözümlemek içinistatistik, matematik ve bilgisayar bilimlerini bir arada kullanan çok disiplinli biralandır. Veri biliminden tamamen bağımsız olduğunu söyleyemesek de, yüksekperformanslı bilgi işlem de karmaşık sistemlerin hesaplanması, modellenmesi vesimülasyonu ve büyük miktarlarda ölçülen verilerin işlenmesi için kullanılan bir araçolarak günümüzde hızla önem kazanmaktadır. Bilimsel yüksek performanslı bilgiişlem kısaca performans geliştirmek için kullanılır. Amaç, mümkün olan en iyi kaynakve destekle yüksek performanslı bilgi işlem gerektiren araştırma projeleri sağlamaktır.Burada vurgulanan araştırma, yüksek performanslı bilgisayarların kullanımı vesimülasyon sonuçlarından iç görü elde etmek ve performans ölçümlerinikolaylaştırmak için yapılmaktadır.Bu yüksek lisans tezinde, Lichtenberg yüksek performanslı bilgisayarlar kümesindebulunan yüksek performanslı bilgisayarların tahsis ve kullanım yönetiminiiyileştirmek amacıyla yapılan uygulama geliştirme projesi sunulmaktadır. LichtenbergHPC kümesindeki bilgisayarları projelerinde kullanmak üzere alan ve kaynak talebintebulunan kulanıcılar, araştırmacılar, öğrenciler veya firmalar olabilir. Proje sahipleri,projelerinin onaylanmasıyla birlikte, projeleri için çalıştıracakları programların HPCbilgisayarlarından hangisi veya hangileri tahsis edildi ise onlarda çalıştırılması için nekadar kaynak talep ettiklerini, iş talebi (job request) adı altında, projenin yürütülmesiiçin kaynaklardan sağlanacak olan gereksinimleri belirterek programlarınıcalıştırmaya başlarlar. Projelerin başlangıcından bitişine kadar geçen süreçte her birproje ve bu projeleri oluşturuan alt programların çalıştırılması için ne kadar yüksekperformanslı bilgisayar, CPU ve hafıza tahsis edildiği bilgisi sistemde bulunmaktadır.Bu bilgiler kullanıcının projeyi yürütmek için sistemden talep ettiği kaynak verileriolup, bu verilere ek olarak sistemde projelerin kullandığı kaynak bilgisi de xxiibulunmaktadır. Bu kümenin tahsis yönetiminde, öncelikle haftalik olarak projelerinharcadiklari hafıza, bilgisayar sayısı gibi kaynak ölçümü yapılır ve analiz edilir. Buyönetim için verilerle gerekli hesaplamaların yapılması, en çok kaynak kullananprojelerin belirlenmesi ve analizler sonucunda bu projelerin sahipleri ile iletişimegeçilmesi şeklinde ilerleyen bir süreç yürütülmektedir. Bu süreç sayesinde projelerdeiyileştirmeye gidilmesi için yukarıda belirtilen işlemleri, kullanıcıya destek verilmesive/veya proje kaynaklarının yönetilmesi gibi adımlar takip eder. Ancak bu yükseklisans tezi kapsamında, sürecin en başında veri tabanı düzeyinde gerçekleştirilenhesaplamalar, hespalamaların sonucunda oluşturulan histogramlar, raporlar veistatistiklerin programatik yönetim sürecinin iyileştirilmesi ele alınmıştır. Budeğerlendirme sürecinin en kolay ve pratik şekilde yapılması için sistemin öncedensahip olduğu dosya yapısının derlenmesi, programların otomatize edilmesi ve tümişlemlerin uygulama düzeyinden veri tabanı düzeyine indirgenmesi, bununla beraberzamandan ve enerjiden kâr edilmesi gerekmektedir. Bu uygulamanın, kullanıcılaradına zamandan ve enerjiden kâr etmek, HPC kümesinin kullanımı adına ise kaynakyonetimini yapmak amacıyla geliştirilmesi ve geliştirmenin tamamlanması ile yapılanpratik ve teorik karşılaştırmalarda uygulamadan beklenen verimin alınmasıhedeflenmiştir. Lichtenberg yüksek performanslı bilgisayar kümelerinde yapılan buçalışmanın tamamı, bu yüksek lisans tezine konu olmaktadır.Bu yüksek lisans tez çalışmasına başlanmasının sebebi, sistemdeki eski yapının yeterlidüzeyde otomatize olmaması, eski uygulamada yapılan işlemlerin, uygulamanınhedeflenen ve başarıyla uygulanan yeni yapınn tamamının kapsadığı işlemleri,kullanıcı gücüyle birden cok kez farklı parametrelerle çalıştırılması ile yapılması,uygulamanın başlamasından bitmesine kadar geçen sürenin çok uzun olması ve bununkullanıcı için olumsuz bir etken olması, bu bağlamda kullanıcıya pahalıya mâlolmasıdır. Bu aşamada işlemleri C++ kod tabanından çıkarıp, veritabanı seviyesindetamamlamak üzere SQL yapısına entegre etmek ve uygulama aşamasında yalnızcaSQL yardımı ile işlenmiş ve üretilmiş olan verileri veritabanından alarak, programınçalışma süresinde onların yalnızca sunumu ve raporlanması ile zamandan, enerjidenve donanımsal kaynaktan kazanarak kullanıcıya kolaylık sağlamak olmuştur. Bubağlamda, veri tabanında çalışma bilgileri bulunan tüm programların çalıştırılmadetayları ile gerekli hesaplamaların yapılması, veri dönüşümlerinin gerçekleşmesi veböylece analizlerin kullanıcının anlamlandırabilmesi için uygun, mantıklı ve kullanışlı xxiiihale getirilmesi gerekmiştir. Analizlerin yapılması ile birlikte bazı hesaplamalıişlemler sonucunda yeni veriler üretilmiş ve bu üretilen verilerin de yönetilmesi veyorumlanması gerekmiştir. Üretilen verilerde kaynakların nasıl değerlendirileceğiçalışma süresince kararlaştırılmıştır. Bu açıdan sisteme en çok maliyet oluşturanprojelerin sıralanması ve derecelendirilmesi sonucunda en çok kaynak kullanan veverimli kullanim açısından kendisine tahsis edilen kaynağı en kullanışsız şekildekullandığı belirlenen projeler, bu projelere ait alt görevler ve asıl hedef olankullanıcılar belirlenmektedir. Kullanıcıların belirlenmesi ile bu kullanıcılarınçalıştırdığı diğer projeler ve alt görevleri de belirlenir. Ayrıca bu kullanıcıların diğerprojelerinin yanı sıra, bu projelerde görev alan, bu kullanıcılar dışındaki diğer yankullanıcılar da belirlenir. Bu sureci programatik olarak, analizinin yapılması istenenperiyotlarla programın çalıştırılması oluşturur. Bu islemlerin en başında sistemdekiverilen işlenmesi ile veri madenciliği yapılmaktadır ve bu işlemlerin tamamı veritabanında gerçekleşir. Veri tabanında üretilen sonuçların kullanıcıya sunulması,histogramlar ve raporlar yardımıyla yapılır. Bu sonuçların değerlendirilmesi sürecisistem sahibi tarafından sistem dışında manuel olarak ilerlemektedir. Sistemde yapılanveri analizi sonucunda belirlenen kullanıcıların nasıl ve neye göre tespit edildiği,yapılan analizlerin hangi etkenler ve standartlar baz alınarak yapıldığı, karar aşamalarıve alınan bağlantılı aksiyonların tamamı; yaklaşımlar ve beklentiler bazında bu tezçalışmasında sunulmuştur. Bu uygulamanın geliştirilmesi ile, periyodik olarak yapılananalizler için harcanan süre ve programın çalıştırılması için harcanan kaynak gözlegörülür bir şekilde azalmış olup, HPC yönetim sürecinde ise performans ve kaynaktahsis düzenlemesi adına tüm işlemsel adımları tek seferde tamamlayarak kullanıcıyabüyük oranda kolaylık sağlamıştır. Bu tez çalışması, tercih edilen sistem kullanımanaliz yaklaşımı, performans yönetiminde hangi mevcut yazılımsal fonksiyonlardanve donanımsal kaynaklardan yararlanılacağını, iyileştirmedeki beklenti aralığını, HPCkümelerinin tahsisinde alınan yanlış kararların tespitini, performans ve hafıza kullanımsorunlarının değerlendirilmesini, veri analizi süreçlerini, uygulamanın sisteme entegreedilmesini ve yapılan çalışmalar sonucu sistemde yer alan yeni uygulamanın eskiyapıya göre ne kadar daha kârlı olduğunu gösteren genel aşamalar barındırmaktadır. Data science is a multidisciplinary field that uses statistics, mathematics and computerscience to analytically understand and solve complex problems. Although we cannotsay that it is completely independent of data science, high-performance computing(HPC) is rapidly gaining importance as a tool for calculating, modeling and simulatingcomplex systems and processing large amounts of measured data. Briefly, scientifichigh-performance computing is used to improve performance. The aim is to provideresearch projects that require high performance computing with the best possibleresources and support. The research highlighted here is done to get insight from theuse of high-performance computers and simulation results and to facilitateperformance measurements.At this stage, the main task that should be fulfilled for the techniques to determine thedual program similarity after the study is to make the necessary analysis in thecomputer cluster we work in first.In order to fulfill this condition, it is necessary to make the data-level operations relatedto the execution details of all programs with runtime information in the database, tomake the data transformations and thus to make the analyzes meaningful, logical anduseful to the end user.With the analysis done, the projects that use the most resources as the result of theranking, the sub-tasks of these projects and the users with their executives aredetermined. By identifying users, other projects and sub-tasks of these users are alsodetermined. In addition to other projects of these users, other users who are workingon the same project with these users are also determined. This determination processis being done in the database with data analysis studies.The study for the determination and analysis process and the results of the analysis andthe results of this analysis is the content of this master thesis.xxIn this thesis, how and what the users were determined, what factors were done basedon the analysis, decision stages and related actions are presented. With this research,it is inevitable to have a clear suggestion on how to improve performance by presentingthe results obtained to the relevant people.In this thesis, which is studied in Lichtenberg Cluster specially, the structuraldevelopment of the application, which is a smart connection to the database of theprojects, is mentioned with its infrastructural features. This structural development isaccomplished in order to reach the users in Lichtenberg HPC cluster, who areidentified by analyzing their project data according to the conditions of data andsystem usage determined earlier, take into account the other components mentionedabove from the user list obtained with real reasons for maintenance and support theimprovement of the projects.From this point of view, this thesis includes basic and general stages such asdetermining performance and memory usage problems in HPC field, performing dataanalysis, problem identification, tool development and offering solution suggestions 97
- Published
- 2019
Catalog
Discovery Service for Jio Institute Digital Library
For full access to our library's resources, please sign in.