47 results on '"Tunga, Burcu"'
Search Results
2. High dimensional model representation median filter for removing salt and pepper noise
- Author
-
Kacar, Sena and Tunga, Burcu
- Published
- 2024
- Full Text
- View/download PDF
3. Machine learning based tomographic image reconstruction technique to detect hollows in wood
- Author
-
Yıldızcan, Ecem Nur, Arı, Mehmet Erdi, Tunga, Burcu, Gelir, Ali, Kurul, Fatih, As, Nusret, and Dündar, Türker
- Published
- 2024
- Full Text
- View/download PDF
4. Contrast and content preserving HDMR-based color-to-gray conversion
- Author
-
Ceylan, Ayça, Korkmaz Özay, Evrim, and Tunga, Burcu
- Published
- 2024
- Full Text
- View/download PDF
5. A novel multistage CAD system for breast cancer diagnosis
- Author
-
Karacan, Kübra, Uyar, Tevfik, Tunga, Burcu, and Tunga, M. Alper
- Published
- 2023
- Full Text
- View/download PDF
6. Content Based Image Retrieval Using HDMR Constant Term Based Clustering
- Author
-
Karcılı, Ayşegül, Tunga, Burcu, Yilmaz, Fatih, editor, Queiruga-Dios, Araceli, editor, Santos Sánchez, María Jesús, editor, Rasteiro, Deolinda, editor, Gayoso Martínez, Víctor, editor, and Martín Vaquero, Jesús, editor
- Published
- 2022
- Full Text
- View/download PDF
7. Hyperspectral image denoising with enhanced multivariance product representation
- Author
-
Korkmaz Özay, Evrim and Tunga, Burcu
- Published
- 2022
- Full Text
- View/download PDF
8. DeepEMPR: coffee leaf disease detection with deep learning and enhanced multivariance product representation.
- Author
-
Topal, Ahmet, Tunga, Burcu, and Tirkolaee, Erfan Babaee
- Subjects
CONVOLUTIONAL neural networks ,HIGH-dimensional model representation ,SUSTAINABLE agriculture ,ARTIFICIAL intelligence ,PLANT diseases ,DEEP learning - Abstract
Plant diseases threaten agricultural sustainability by reducing crop yields. Rapid and accurate disease identification is crucial for effective management. Recent advancements in artificial intelligence (AI) have facilitated the development of automated systems for disease detection. This study focuses on enhancing the classification of diseases and estimating their severity in coffee leaf images. To do so, we propose a novel approach as the preprocessing step for the classification in which enhanced multivariance product representation (EMPR) is used to decompose the considered image into components, a new image is constructed using some of those components, and the contrast of the new image is enhanced by applying high-dimensional model representation (HDMR) to highlight the diseased parts of the leaves. Popular convolutional neural network (CNN) architectures, including AlexNet, VGG16, and ResNet50, are evaluated. Results show that VGG16 achieves the highest classification accuracy of approximately 96%, while all models perform well in predicting disease severity levels, with accuracies exceeding 85%. Notably, the ResNet50 model achieves accuracy levels surpassing 90%. This research contributes to the advancement of automated crop health management systems. [ABSTRACT FROM AUTHOR]
- Published
- 2024
- Full Text
- View/download PDF
9. A novel method for multispectral image pansharpening based on high dimensional model representation
- Author
-
Korkmaz Özay, Evrim and Tunga, Burcu
- Published
- 2021
- Full Text
- View/download PDF
10. A hybrid algorithm with cluster analysis in modelling high dimensional data
- Author
-
Tunga, Burcu
- Published
- 2018
- Full Text
- View/download PDF
11. Digital image decomposition and contrast enhancement using high-dimensional model representation
- Author
-
Tunga, Burcu and Koçanaoğulları, Aziz
- Published
- 2017
- Full Text
- View/download PDF
12. Classification of skin lesions using convolutional neural networks
- Author
-
BİLGİNER, Onur, TUNGA, Burcu, and DEMİRER, Rüştü Murat
- Subjects
Engineering ,Classifications of skin lesions,Hilbert transform,High dimensional model representation ,Deri pigmentasyonlarının sınıflandırılması,Hilbert dönüşümü,Yüksek boyutlu model gösterilimi ,Mühendislik ,General Medicine - Abstract
In this paper we classified 4 skin lesions (Melanoma,Melanocytic Nevus, Basal Cell Carcinoma, Benign keratosis) from ISIC 2019 dataset which was published by International Skin Imaging Collabration in 2019. We used InceptionV3 convolutional neural network model for classification. We applied two preprocessing methods: High Dimensional Model Representation (HDMR) and Hilbert Transform. In conclusion we obtained 89% accuracy on classification of Basal Cell Carcinoma using Hilbert Transform. Moreover, we obtained 78% accuracy on classification of Melanoma using Contrast Enhancement High Dimensional Model Representation (HDMR)., Bu çalışmada Uluslararası Deri Görüntüleme Birliği tarafından 2019 yılında yayınlanan ve 25000’den fazla dermoskopik deri görüntüsü içeren ISIC 2019 veri seti kullanılarak 4 çeşit (Melanom, Melanositik Nevüs, Bazal Hücreli Karsinom, İyi Huylu Keratoz) deri pigmentasyonu Evrişimsel Sinir Ağları yöntemi yardımıyla sınıflandırılmıştır. Sınıflandırma yapılırken InceptionV3 yapay sinir ağı mimarisi kullanılmıştır. Deri görüntülerine önişlem olarak Hilbert Dönüşümü ve Yüksek Boyutlu Model Gösterilimi uygulanmıştır. Elde edilen sonuçlara göre test verisi üzerinde Hilbert Dönüşümü uygulanmış görüntülerde Bazal Hücreli Karsinom hastalığının sınıflandırılmasında %89 başarı oranı elde edilmiştir. Yüksek Boyutlu Model Gösterilimi ile Kontrast Artırımı uygulanan görsellerde ise Melanomun sınıflandırılmasında %78 başarı oranı elde edilmiştir.
- Published
- 2022
- Full Text
- View/download PDF
13. A novel approximation method for multivariate data partitioning : Fluctuation free integration based HDMR
- Author
-
Tunga, Burcu and Demiralp, Metin
- Published
- 2012
- Full Text
- View/download PDF
14. Weight optimization in HDMR with perturbation expansion method
- Author
-
Tunga, Burcu and Demiralp, Metin
- Published
- 2015
- Full Text
- View/download PDF
15. An efficient feature extraction approach for hyperspectral images using wavelet high dimensional model representation
- Author
-
Tuna, Suha, Ozay, Evrim Korkmaz, Tunga, Burcu, Gurvit, Ercan, Tunga, M. Alper, İstinye Üniversitesi, Mühendislik ve Doğa Bilimleri Fakültesi, Bilgisayar Mühendisliği Bölümü, Tunga, Mehmet Alper, and N-9306-2013
- Subjects
General Earth and Planetary Sciences ,Hyperspectral Data ,High Dimensional Model Representation ,Wavelets ,Classification ,Feature Extraction - Abstract
Hyperspectral (HS) Imagery helps to capture information using specialized sensors to extract detailed data at numerous narrow wavelengths. Hyperspectral imaging provides both spatial and spectral characteristics of regions or objects for subsequent analysis. Unfortunately, various noise sources decrease the interpretability of these images as well as the correlation between neighbouring pixels, hence both reduce the classification performance. This study focuses on developing an ensemble algorithm that enables to denoise the spectral signals while decorrelating the spatio-spectral features concurrently. The developed method is called Wavelet High Dimensional Model (W-HDMR) and combines High Dimensional Model Representation (HDMR) with the Discrete Wavelet Transform (DWT). Through W-HDMR, denoised and decorrelated features are extracted from the HS cubes. HDMR decorrelates each dimension in HS data while DWT denoises the spectral signals. The classification performance of W-HDMR as a new feature extraction technique for HS images is assessed by exploiting a Support Vector Machines algorithm. The results indicate that the proposed W-HDMR method is an efficient feature extraction technique and is considered an adequate tool in the HS classification problem. WOS:000897079200001 Q2
- Published
- 2022
16. A novel piecewise multivariate function approximation method via universal matrix representation
- Author
-
Tuna, Süha and Tunga, Burcu
- Published
- 2013
- Full Text
- View/download PDF
17. A probabilistic evolution approach trilogy, part 3: temporal variation of state variable expectation values from Liouville equation perspective
- Author
-
Demiralp, Metin and Tunga, Burcu
- Published
- 2013
- Full Text
- View/download PDF
18. Hybrid HDMR method with an optimized hybridity parameter in multivariate function representation
- Author
-
Tunga, Burcu and Demiralp, Metin
- Published
- 2012
- Full Text
- View/download PDF
19. Constancy maximization based weight optimization in high dimensional model representation for multivariate functions
- Author
-
Tunga, Burcu and Demiralp, Metin
- Published
- 2011
- Full Text
- View/download PDF
20. Fluctuation free multivariate integration based logarithmic HDMR in multivariate function representation
- Author
-
Tunga, Burcu and Demiralp, Metin
- Published
- 2011
- Full Text
- View/download PDF
21. The influence of the support functions on the quality of enhanced multivariance product representation
- Author
-
Tunga, Burcu and Demiralp, Metin
- Published
- 2010
- Full Text
- View/download PDF
22. Constancy maximization based weight optimization in high dimensional model representation
- Author
-
Tunga, Burcu and Demiralp, Metin
- Published
- 2009
- Full Text
- View/download PDF
23. Deri lezyonlarının evrişimsel yapay sinir ağları ile sınıflandırılması.
- Author
-
BİLGİNER, Onur, TUNGA, Burcu, and DEMİRER, Rüştü Murat
- Subjects
- *
HIGH-dimensional model representation , *HILBERT transform , *ARTIFICIAL neural networks , *BASAL cell carcinoma , *CONVOLUTIONAL neural networks , *NEVUS - Abstract
In this paper we classified 4 skin lesions (Melanoma, Melanocytic Nevus, Basal Cell Carcinoma, Benign keratosis) from ISIC 2019 dataset which was published by International Skin Imaging Collabration in 2019. We used InceptionV3 convolutional neural network model for classification. We applied two preprocessing methods: High Dimensional Model Representation (HDMR) and Hilbert Transform. In conclusion we obtained 89% accuracy on classification of Basal Cell Carcinoma using Hilbert Transform. Moreover, we obtained 78% accuracy on classification of Melanoma using Contrast Enhancement High Dimensional Model Representation (HDMR). [ABSTRACT FROM AUTHOR]
- Published
- 2022
- Full Text
- View/download PDF
24. License Plate Recognition System by Using High Dimensional Model Representation
- Author
-
Dere, Nursinem, primary and Tunga, Burcu, additional
- Published
- 2018
- Full Text
- View/download PDF
25. High dimensional model representation (HDMR) with clustering for image retrieval
- Author
-
Karcılı, Ayşegül, primary and Tunga, Burcu, additional
- Published
- 2017
- Full Text
- View/download PDF
26. Digital image decomposition and contrast enhancement using high-dimensional model representation.
- Author
-
Tunga, Burcu and Koçanaoğulları, Aziz
- Abstract
Contrast is the difference in brightness and color that makes an object distinguishable. Contrast enhancement (CE) is a technique used to improve the visual quality of an image for human recognition. This study proposes a new methodology called high-dimensional model representation (HDMR) for enhancing contrast in digital images. The novelty of HDMR is that the method first decomposes the image into its dimensions, then represents the image using the superposition of decomposed components and finally enhances contrast in the image by adding certain HDMR components to the representation. HDMR has high performance as a CE technique in both grayscale and color images when compared with some state-of-the-art methods. [ABSTRACT FROM AUTHOR]
- Published
- 2018
- Full Text
- View/download PDF
27. Yüksek boyutlu model gösteriliminde sendelenimsiz matris gösterilimi tabanlı ağırlık eniyilemesi
- Author
-
Tunga, Burcu, Demiralp, Metin, and Hesaplamalı Bilimler ve Mühendislik Anabilim Dalı
- Subjects
Engineering Sciences ,Mühendislik Bilimleri - Abstract
Bu çalışmada, ilk olarak Sobol tarafından tasarlanan ve artık günümüzde oldukça yaygın olarak kullanılan Yüksek Boyutlu Model Gösterilim (YBMG) yönteminin etkinliğinin arttırılabilmesi için ağırlık eniyilemesi yapılmaktadır. YBMG yöntemi, N bağımsız değişkene bağlı çok değişkenli bir işlevi; bir değişmez işlev, N sayıda tek değişkene bağlı işlevler, N(N-1)/2 sayıda iki değişkene bağlı işlevler ve bu şekilde giderek artan sayıda değişkene bağlı olan işlevlerin toplamı şeklinde anlatabilmek için kullanılan bir açılım yöntemidir.Bu açılım toplam 2^N sayıda işlev içermektedir ve bu işlevlerin hepsinin birden açılımda yer alması durumunda çok değişkenli işlev tam olarak anlatılır. Ancak hem açılımda yer alan işlevlerin belirlenmesi sırasında integral işlemlerinin bulunması hem de N sayısı çok yukarılara tırmandığında çok fazla sayıda işlevin hesaplanma gerekliliği, açılımdan baştan belli sayıda işlev alıkonularak verilen işlevi anlatabilme zorunluluğunu getirmektedir. YBMG açılımını kullanırken eğilim, hesaplama karmaşıklığını yükseltmemek adına, açılımın en fazla iki değişkene bağlı olan işlevlerinin içerildiği halinin kullanılmasıdır. Bu durumda verilen çok değişkenli işlev yaklaşık olarak temsil edilir. Yaklaştırımın başarısının arttırılması için açılımın bilimsel yazında varolan yapısında bir eniyileme yapılması gündeme getirilebilir. Bunu başarabilmenin yollarından bir tanesi, bu tez çalışmasının da konusu olan, YBMG yönteminin kendi yapısında bulunan ve yöntemin bir parçası olan ağırlık işlevinin daha etkinleştirilmesi için ağırlık eniyilemesinin yapılmasıdır.Tez çalışması içerisinde YBMG yönteminde ağırlık eniyilenmesi iki ana bölüme ayrılarak anlatılmıştır. İlk ana bölümde, analitik yapısı bilinen bir çok değişkenli işlevi temsil edebilmek uzere, yapısı daha az karmaşık olan yaklaşık bir işlev elde edilmesi sırasında ağırlık eniyileme denklemlerinin elde edilerek çözülmesi anlatılırken, ikinci ana bölümde ise, analitik yapısı bilinmeyen işlevlerin çok değişkenli bir veri kümesi üzerinde kümenin her bir düğüm noktasındaki değerleri verildiğinde ilgili işleve uygun bir analitik yapının ortaya çıkarılması sırasında ağırlık eniyilemesinin nasıl yapılabileceği anlatılmaktadır.Analitik yapısı bilinen bir çok değişkenli işlevin YBMG yöntemine açılması sırasında ağırlık eniyilemesi için elde edilen denklemler iki farklı yol kullanılarak çözülmeye çalışılmıştır. Bunlardan ilki saptırım açılımları yöntemi diğeri ise tez danışmanı tarafından geliştirilmiş olan sendelenim açılımları yöntemidir. Analitik yapısı bilinmeyen ancak hiperprizmatik düzgün bir ızgaranın tüm düğüm noktalarında değerleri verilmiş olan işlev için YBMG yöntemi kullanılarak bir analitik yapı belirlenmesi ağırlık eniyilemesi altında gündeme getirilmiş ve bu eniyilemenin oluşabilmesi için sendelenimsiz integrasyon yönteminden yararlanılmıştır. SUMMARYIn this work, a weight function optimization is developed to increase the efficiency of the High Dimensional Model Representation (HDMR) method, a widely used method, which was first proposed by Sobol. HDMR is constructed as an expansion for a given multivariate function having $N$ independent variables such that its components are ordered starting from a constant component and continuing in ascending multivariance, that is, $N$ number of univariate, and $N(N-1)/2$ number of bivariate components and so on. The total number of HDMR expansion's components is $2^N$ and all of these components must be used in the expansion to have the ability of exactly representing the given multivariate function. However, the requirement of evaluating both the integrals appearing in the relations obtained for the HDMR components and huge number of HDMR components depending on the rapid increase of $N$ brings us to take only first few HDMR components into account to represent the given multivariate function. The tendency in the HDMR expansion utilization is to go to at most the bivariate components not to increase the computational complexity. Using a few components of the HDMR expansion corresponds to the approximate representation of the given multivariate function. An optimization in the structure of the method can be brought up to increase the efficiency of this approximation. One way to achieve this is the optimization of the HDMR's weight function.This is the main subject of this work. The optimization of the weight function in the HDMR method is explained in two main sections of this thesis. In the first part, the weight function is tried to be optimized in such a problem that the analytical structure of the multivariate function is known and the task is to represent that function in terms of less-variate more simple functions. In the second part, an algorithm to optimize the weight function of the HDMR method is given under the assumption that the analytical structure of the function to be represented through the HDMR method is not known, instead, the values of the function at the nodes of the given multivariate data set are known to determine an analytical structure. The equations obtained for the optimization of the weight function in the representation of a multivariate function through the HDMR method whose analytical structure is known are tried to be solved by using two different ways. One of these methods is perturbation expansion method and the other is fluctuation expansion method which was first proposed by the supervisor of this thesis.Fluctuationlessness integration method is used to optimize the HDMR's weight function in problems such that the values of the multivariate function at the nodes of a hyperprismatics regular grid are given instead of the analytical structure of the function and is asked to determine an analytical structure for the sought function. 154
- Published
- 2010
28. Separate multinode ascending derivatives expansion (Demiralp’s SMADE): Basis polynomials
- Author
-
Tunga, Burcu, primary
- Published
- 2015
- Full Text
- View/download PDF
29. Uyumlu Salınıcının Doğrusal İkikutup İşlevli,ikinci Derece Erek Ve Yaptırım Terimli Eniyilemeli Denetim Denklemlerinin Elde Edilmesi Ve Çözülmesi
- Author
-
Tunga, Burcu, Demiralp, Metin, Hesaplamalı Bilim Ve Mühendislik, and Computational Science and Engineering
- Subjects
Kuantum kuramı ,Quantum theory ,Boyut analizi ,Dimensional analysis - Abstract
Tez (Yüksek Lisans) -- İstanbul Teknik Üniversitesi, Bilişim Ensititüsü, 2003, Thesis (M.Sc.) -- İstanbul Technical University, Institute of Informatics, 2003, Bu çalışmada bir boyutlu kuvantum uyumlu salınıcının eniyilemeli denetimi sorunu ile ilgilenilmiştir. Dizgenin doğrusal ikikutup işlevli (dipole function) bir lazer alanı altında olduğu varsayılmış, erek ve yaptırım terimlerinde içerilen işleçlerin (operatör) konum ve momentum işleçlerine göre en çok ikinci dereceden oldukları öngörülmüştür. Çalışmada öncelikle eniyilemeli denetim denklemleri elde edilmiş, daha sonra elde edilen bu denklemler iki ayrı yöntem kullanılarak çözülmüştür. Kullanılan yöntemlerden ilki saptırım açılımıdır. Eniyilemeli denetim denklemleri bu yöntem ile çözülürken güçsüz alan varsayımı yapılmış ve saptırım açılımında yalnızca sıfırıncı ve birinci basamaktan terimler alıkonulmuştur. Yani, güçsüz alan varsayımı altında ileri doğru evrimi betimleyen $\psi$ dalga işlevi ile geriye doğru evrimi betimleyen $\lambda$ eşdüzey işlevinin birinci basamaktan yaklaştırımları yapılmış ve bu yaklaştırımlar kullanılarak amaçlanan çözüme ulaşılmıştır. Saptırım açılımında sıralama değiştirgeni (parametresi) olarak, yaklaştırım elde edildiğinde değeri 1 olarak alınacak olan, denklemlere dış alan genlik işlevini ölçekleyecek biçimde yerleştirilen yapay bir değişkenden yararlanılmış yani Neumann türü bir saptırım açılımı gerçekleştirilmiştir. Kullanılan ikinci yöntem işleçler cebri ile indirgeme tabanlıdır. Bu yöntem dizgenin kendisinde varolan evrim işleçlerinin (evolution operators) matrisler türünden yazılarak analitik olarak kolayca yapılamayan işlemlerin dolaylı ama daha kolay olarak gerçekleştirilmesine dayanır. Evrim işleçlerinin matris gösterilimlerinin elde edilebilmesi için önce evrim işleçleri çarpanlara ayrılarak çok boyutlu uzayda dönmeye karşı gelen birimsel işleçler elde edilir ve bu birimsel işleçler üzerinden üstel matrislere ulaşılır. Bu yöntemde güçsüz alan varsayımı kullanılmamış ve dış alan genliğine ait saptırım açılımları yöntemi ile elde edilen doğrusal terimlerin yanısıra üçüncü dereceden terimlerin de içerildiği doğrusal olmayan kesin bir denkleme ulaşılmıştır. Böylece, her iki yöntemle de elde edilen denetim denklemleri bilinmeyen olarak yalnızca dış alan genliğini içeren tümlevli denklemler yapısında ortaya çıkmıştır. Bu denklemler, saptırım açılımı durumunda, kolayca sayılabilecek biçimde, iki koşulu dizge ile dış alan etkileşiminin başında, diğer iki koşulu ise aynı etkileşimin son anında verilen, dördüncü dereceden türevli denkleme dönüştürülebilmektedir. Değişmez katsayılı bu denklem zorlanmadan çözülebilmektedir. Doğrusal olmayan kesin denklem durumunda denklemin sıradan türevli biçime getirilmesi yine de mümkün olabilmekte ancak elde edilen denklem doğrusal olmadığından kesin çözüm bir çırpıda elde edilememektedir. Bunun yerine çok yakında geliştirilen bir yöntemden, etkileşim süresine göre açılım yönteminden yararlanılmaktadır. Tezde bu açılımın yalnızca ilk baskın terimi verilmiş ve çözüm sırasında çok önemli özgün bulgular elde edilerek kuvantum uyumlu salınıcının eniyilemeli denetimine doğrusal olmayan durumlar için önemli bir katkı yapılmış olunmaktadır., In this work, we deal with optimal control of one dimensional quantum harmonic oscillator. It is assumed that the system is under an external field characterized by a linear dipole function. It is also assumed that the operators appearing in the objective and the penalty terms are at most second degree with respect to the state and the momentum operators. Firstly, optimal control equations are obtained. Then, these equations are solved by using two different methods. One of these methods is the perturbation expansion method. When the optimal control equations are solved by using this method it is assumed that there is a weak field and under this assumption only the zeroth and the first order terms are kept in the perturbation expansion. In other words, the weak field assumption enables us to develop a first order perturbation approach to get approximate solutions to the wave function, $\psi$ and the costate function, $\lambda$ and by using these approximations the aimed solutions are obtained. An artificial parameter, which is placed into the equations to satisfy the scaling of the external field, is used as an order parameter in the perturbation expansion. This parameter will be set equal to $1$ when the approximation is obtained. Therefore, a Neumann type perturbation expansion is taken into consideration. The other method is based on the reduction using operator algebra. This method allows us to rewrite the evolution operators, appearing in the system, in terms of several matrices in order to be able to obtain the solutions of the problems which can not be easily solved analytically. To be able to obtain the matrix forms of the evolution operators, first the multiplicative terms of these operators are obtained for constructing the unitary operators corresponding to the rotation in the high dimensional space and by using these unitary operators the exponential matrices are obtained. Weak field assumption is not used in this method, and furthermore, in addition to linear terms obtained from perturbation expansion cubic terms are also determined. Hence, the control equations determined through these two methods appeared in the structure of integral equations including only the external field as an unknown. When the perturbation expansion method is used these equations can be easily transformed to the fourth order differential equation whose two conditions are given at the beginning instant of the interaction between the system and the external field, and the other two conditions are given at the final instant of the same interaction. This equation with constant coefficients can be easily solved. When the nonlinear exact equation is used, the transformation of the equation to the ordinary differential equation is also available but the solution cannot be evaluated easily because of the nonlinear structure of the obtained equation. Instead of this method, a recently developed method which is an expansion with respect to the interaction time can be used. In this thesis, only the first dominant term of the expansion is given and some very important peculiar findings are obtained during the solution. Using these findings important contributions are made for the optimal control of the harmonic oscillator in the nonlinear cases., Yüksek Lisans, M.Sc.
- Published
- 2003
30. Logarithmic high dimensional model representation in image processing
- Author
-
Tunga, Burcu, primary
- Published
- 2014
- Full Text
- View/download PDF
31. A probabilistic evolution approach trilogy, part 3: temporal variation of state variable expectation values from Liouville equation perspective
- Author
-
Demiralp, Metin, primary and Tunga, Burcu, additional
- Published
- 2012
- Full Text
- View/download PDF
32. Support function influences on the univariance of the enhanced multivariance product representation
- Author
-
Tunga, Burcu, primary and Demiralp, Metin, additional
- Published
- 2012
- Full Text
- View/download PDF
33. Probabilistic evolutions in classical dynamics: Conicalization and block triangularization of Lennard-Jones systems
- Author
-
Tunga, Burcu, primary and Demiralp, Metin, additional
- Published
- 2012
- Full Text
- View/download PDF
34. Basic Issues in Vector High Dimensional Model Representation
- Author
-
Tunga, Burcu, primary, Demiralp, Metin, additional, Simos, Theodore E., additional, Psihoyios, George, additional, Tsitouras, Ch., additional, and Anastassi, Zacharias, additional
- Published
- 2011
- Full Text
- View/download PDF
35. Fluctuation free multivariate integration based logarithmic HDMR in multivariate function representation
- Author
-
Tunga, Burcu, primary and Demiralp, Metin, additional
- Published
- 2010
- Full Text
- View/download PDF
36. Fluctuationlessness Approximation Based Multivariate Integration in Hybrid High Dimensional Model Representation
- Author
-
Tunga, Burcu, primary and Demiralp, Metin, additional
- Published
- 2008
- Full Text
- View/download PDF
37. Instantaneous Stability and Robustness Investigations in Quantum Optimal Control: Harmonic Oscillator Under Linear Dipole and Quadratic Control Agents
- Author
-
Demiralp, Metin, primary and Tunga, Burcu, additional
- Published
- 2005
- Full Text
- View/download PDF
38. Optimally Controlled Dynamics of One Dimensional Harmonic Oscillator: Linear Dipole Function and Quadratic Penalty
- Author
-
Tunga, Burcu, primary and Demiralp, Metin, additional
- Published
- 2004
- Full Text
- View/download PDF
39. Support function influences on the univariance of the enhanced multivariance product representation.
- Author
-
Tunga, Burcu and Demiralp, Metin
- Subjects
- *
MULTIVARIATE analysis , *FUNCTIONAL analysis , *APPROXIMATION theory , *UNIVARIATE analysis , *NUMERICAL analysis , *ANALYSIS of variance - Abstract
This paper focuses on recently proposed Enhanced Multivariance Product Representation (EMPR) for multivariate functions. This method has been proposed to approximate the multivariate functions by certain additive less variate functions via support functions to get better quality than HDMR's. For this purpose, EMPR disintegrates a multivariate function to components which are respectively constant, univariate, bivariate and so on in ascending multivariance. This work aims at the investigation of the EMPR truncation qualities with respect to the selection of the support functions. [ABSTRACT FROM AUTHOR]
- Published
- 2012
- Full Text
- View/download PDF
40. Basic Issues in Vector High Dimensional Model Representation.
- Author
-
Tunga, Burcu and Demiralp, Metin
- Subjects
- *
VECTOR analysis , *DIMENSIONAL analysis , *MULTIVARIATE analysis , *COMPUTATIONAL complexity , *PROBLEM solving - Abstract
A multivariate modelling may involve a set of multivariate functions. A vector valued function structure can be used to mathematically express the given problem and each multivariate function can be considered as an element of this vector. This work aims to construct a new approach representing the elements of this vector structure in terms of less-variate functions to reduce the computational complexity. For this purpose, a new method based on the plain High Dimensional Model Representation (HDMR) philosophy is developed. The basic concepts of this method and several illustrative numerical implementations are given here. [ABSTRACT FROM AUTHOR]
- Published
- 2011
- Full Text
- View/download PDF
41. A novel approximation method for multivariate data partitioningFluctuation free integration based HDMR.
- Author
-
Tunga, Burcu and Demiralp, Metin
- Subjects
APPROXIMATION theory ,HIGH-dimensional model representation ,INTERPOLATION ,MULTIVARIATE analysis ,MATHEMATICAL models - Abstract
Purpose – The plain High Dimensional Model Representation (HDMR) method needs Dirac delta type weights to partition the given multivariate data set for modelling an interpolation problem. Dirac delta type weight imposes a different importance level to each node of this set during the partitioning procedure which directly effects the performance of HDMR. The purpose of this paper is to develop a new method by using fluctuation free integration and HDMR methods to obtain optimized weight factors needed for identifying these importance levels for the multivariate data partitioning and modelling procedure. Design/methodology/approach – A common problem in multivariate interpolation problems where the sought function values are given at the nodes of a rectangular prismatic grid is to determine an analytical structure for the function under consideration. As the multivariance of an interpolation problem increases, incompletenesses appear in standard numerical methods and memory limitations in computer-based applications. To overcome the multivariance problems, it is better to deal with less-variate structures. HDMR methods which are based on divide-and-conquer philosophy can be used for this purpose. This corresponds to multivariate data partitioning in which at most univariate components of the Plain HDMR are taken into consideration. To obtain these components there exist a number of integrals to be evaluated and the Fluctuation Free Integration method is used to obtain the results of these integrals. This new form of HDMR integrated with Fluctuation Free Integration also allows the Dirac delta type weight usage in multivariate data partitioning to be discarded and to optimize the weight factors corresponding to the importance level of each node of the given set. Findings – The method developed in this study is applied to the six numerical examples in which there exist different structures and very encouraging results were obtained. In addition, the new method is compared with the other methods which include Dirac delta type weight function and the obtained results are given in the numerical implementations section. Originality/value – The authors' new method allows an optimized weight structure in modelling to be determined in the given problem, instead of imposing the use of a certain weight function such as Dirac delta type weight. This allows the HDMR philosophy to have the chance of a flexible weight utilization in multivariate data modelling problems. [ABSTRACT FROM AUTHOR]
- Published
- 2012
- Full Text
- View/download PDF
42. New model for forecasting financial data
- Author
-
Seymen Uzun, Özgün, Tunga, Burcu, and Matematik Mühendisliği Ana Bilim Dalı
- Subjects
Matematik ,Mathematics - Abstract
Bir zaman serisi, bir değerin zaman içerisinde sıralanmış ölçümlerinin bir kümesi olarak tanımlanabilir. Zaman serileri trend, mevsimsellik, çevresel, düzensizlik olmak üzere dört bileşenden oluşur. Zaman serilerinin önemli bir süreçlerinden birisi tahmin yapmadır. Geçmişteki ve şimdiki verileri kullanarak ve genellikle trendlerin analizi ile geleceğe yönelik öngörülerde bulunma sürecidir. Finansal zaman serileri doğrusal değildir ve karmaşıktır. Bu nedenle, finansal zaman serilerinin tahmin edilmesi zordur. Borsa fiyat endeksinin tahmini ve endeksin hareketi, finansal zaman serileri ile ilgili en yaygın araştırma alanlarından biridir. Ayrıca, hisse senedi fiyat endeksi ekonomik, sosyal, politik olaylar gibi birçok değişik faktörden etkilenmektedir. Bu sorunlara rağmen, hisse senedi endeksi tahmini son zamanlarda uzmanlar ve akademisyenler için en popüler sorunlardan biri olmuştur.Teknik analiz, muhtemel gelecekteki fiyatları belirlemek için son fiyatları inceleme olarak tanımlanabilir. Hareketli ortalamalar metodu ise en eski ve en popüler teknik analiz araçlarından biridir. Hareketli bir ortalama, belirli bir zamanda olan fiyatların ortalamasıdır. Beş popüler hareketli ortalama türü vardır: basit, üstel, üçgen, değişken ve ağırlıklı. Bu hareketli ortalamalar arasındaki en önemli fark, son zamanlara yakın verilere verilen ağırlıktır. Hareketli ortalama sürecinde, her bir gecikmeli hata terimi onun şimdiki değerini etkilemektedir. Hareketli ortalama yakınsak ıraksak indikatörü (Moving Average Convergence Divergence) teknik analizde en yaygın kullanılan teknik göstergedir. Hesaplanırken üstel hareketli ortalama kullanılır. Verilerin 26 günlük ve 12 günlük üstel hareketli ortalama değerleri hesaplanır. Hesaplanan 26 ve 12 günlük hareketli ortalamaların farkı MACD çizgisini verir. Sinyal çizgisi ise, MACD 'nin 9 günlük üstel hareketli ortalamasından elde edilir. Uzmanlar, MACD teknik analiz yöntemini kullanarak alım-satım (ayı-boğa) davranışına karar vermek için yorumda bulunurlar.Vektör Otoregresif model (VAR), çok değişkenli zaman serileri için literatürdeki en bilinen tahmin etme modelidir. Çok değişkenli zaman serilerinde en önemli amaç serinin bileşenleri arasında öngörülebilir yani durağan lineer birleşimin araştırılmasıdır. Başka bir deyişle, serinin bileşenleri arasındaki kointegrasyon ilişkisinin belirlenmesidir. Böyle bir ilişki belirlendiği zaman, serinin durağan lineer birleşimleri üzerinden istatistiki sonuç çıkarımlar yapılabilir. Vektör Otoregresif modelinde, endojen (bağımlı değişken) değer, tahmin edilecek eksojen (bağımsız değişken) değerler ile modellenir. İçsel değişkenlerin birlikte ele alındığı eş anlı denklem modeli olan Vektör otoregresif model, Sims tarafından 1980 yılında geliştirilmiştir. VAR modelinde değişkenler içsel ve dışsal olarak ayrılmadığından belirlenme sorunu söz konusu değildir. Bu modelde, bütün değişkenler içsel kabul edilir ve bir değişken kendisinin ve modelde yer alan diğer değişkenlerin gecikmeli değerlerinin fonksiyonu olarak tanımlanır.Bu tezde, finansal verilerin öngörüsü için oluşturulmuş yeni bir model olan Exponential Moving Average Vector Autoregressive Model (EMAVAR) açıklanmıştır. EMAVAR modeli, Moving Average Convergence Divergence teknik analiz indikatörü (MACD) ve Vector Autoregressive (VAR) modeli kullanılarak oluşturulmuştur.EMAVAR modelinde, MACD işleminin sonucu olarak farklı seriler oluşturulur. Daha sonra, bu serilerden iki tanesi bir sonraki değeri tahmin etmek için VAR modelinde bağımsız değişken olarak kullanılır.EMAVAR modelinin detayları şu şekilde açıklanabilir. Öncelikle Kamuoyu Aydınlanma Platformundan elde edilen 2012 – 2018 yılları arasındaki veriler (5- çalışma günü) alınmıştır. Elde edilen bu verilerde tatil günleri nedeniyle oluşan eksik değerler olduğu tespit edilmiştir. Daha sağlıklı tahminler elde edilmesi için veriler doğrusal enterpolasyon uygulanarak ortadan kaldırılmıştır ve bu süreç devam ettirilmiştir. Ayrıca, alınan 6 yıllık tam veri seti, tarihsel verilerin bağımsızlığını göstermek amacıyla 1 yıl ve 2 yıl bölümlerine ayrılmıştır. Daha sonra, MACD işlemi ayrı ayrı bu ayrılan veri bolümlerine uygulanmıştır. MACD 'den elde edilen tüm serilerin durağanlığı (ilgili serilerde birim kökün var olup olmadığı), Augmented Dickey – Fuller Birim Kök Testi ile tespit edilmiştir. Zaman serilerinin durağan olması olarak ifade edilen durum, zaman içinde varyansın ve ortalamanın sabit olması ve gecikmeli iki zaman periodundaki değişkenlerin ko-varyansının değişkenler arasındaki gecikmeye bağlı olup zamana bağlı olmaması olarak tanımlanabilir. MACD işleminden sonra elede edilen macd ve signal serileri bağımsız değişken olarak Vektör Otoregresif modelde kullanılmıştır. Bu uygulama farklı yıllardan oluşan serilere ayrı ayrı olarak yapılmıştır.Ek olarak, zaman serisi modellemelerinde kullanılan diğer modellerden biri Autoregression (AR) modelidir. Otoregresyon, gelecekteki keyfi bir dönem sayısını tahmin etmek için kullanılabilir. Bir AR modelinde, bağımlı değişken geçmişteki değerinin bir fonksiyonudur. Birçok zaman serisi de bu süreci içermektedir. Bu tezde AR modeli, EMAVAR modeli ile daha iyi tahmin verdiğini göstermek için aynı veri setlerinde kullanılmıştır.Tezin ilk ve ikinci bölümünde finansal zaman serilerinin öngörüsü için yapılan çalışmalar incelenmiş ve analiz edilmiştir. Daha sonra tezde kullanılacak olan modellerin matematiksel araştırmalarına ve destekleyici literatür bilgilerine Bölüm 3 'te yer verilmiştir. Korelasyon fonksiyonları, durağanlık tanımı ve tespit etme testleri, modellemenin tanımı, MACD teknik analiz indikatörü, AR modelinin detaylarına yine aynı bölümde yer verilmiştir.Tezin 4. Bölümünde finansal verilerin öngörüsü için oluşturulan yeni model EMAVAR 'ın detaylı açıklamaları mevcuttur. Farklı yıllardan oluşturduğumuz veri setlerine EMAVAR modelinin uygulanmasının detaylı adımları Bölüm 5'te yer almaktadır. Karşılaştırma amacıyla kullanıdığımuız AR modeli uygulamalarının detayları da yine bu bölümdedir. Son olarak, Bölüm 6 'da EMAVAR ve AR modelinin karşılaştırmalı sonuç tabloları bulunmaktadır. Bu tezin amacı, finansal serilerin öngörüsünde doğruluk tahminini iyileştirmek için yeni bir model oluşturmaktır.Özetle, bu tezde Exponential Moving Average Vector Autoregressive (EMAVAR) modeli, AR modeli ile karşılaştırılmıştır. Yapılan araştırmalar ve deneylerden elde edilen sonuçlara göre EMAVAR modeli 2 yıllık veri üzerinde diğerlerinden daha bulunmuştur. Forecasting is a significant process of the time series. It is the process of making predictions of the future by using the past and present data and generally by analysis of trends. Forecasting of stock price index and its movement are one of the most common research field about the financial time series. The financial time series are complicated and non-linear. By this cause, forecast financial time series is difficult. Additionally, the stock price index is affected by many factors like economic, social, political events in complicated manner. Although these issues, the forecast of stock index is one of most remarkable researches for many industrial experts and scholars. In this thesis, the new model EMAVAR is explained. The EMAVAR model is combined MACD and VAR model. Technical analysis is the process of examining a recent price to determine possible future prices. The moving averages is one of the oldest and most popular technical analysis tools. A moving average is the average of prices at a given time. There are five popular types of moving average: simple, exponential, triangular, variable and weighted. The important difference between these MAs is weight to the most recent data. MACD is the most common technical indicator in technical analysis. It uses Exponential Moving Average (EMA) while calculating. 26-days EMA and 12-days EMA of the data is calculated. Then, their subtraction of these EMAs gives the MACD line. The signal line is obtained from 9-days EMA of MACD. When MACD is applied, the experts comment to decide buy-sell (bearish-bullish) behavior.VAR is the most familiar forecasting model in the literature for multivariate time series. In VAR process, the endogenous (dependent variable) value is modeled with the exogenous (independent variable) values to estimate. VAR is used for multivariate time series. The purpose of thesis is to construct a new model to improve the accurancy estimation.The EMAVAR model uses different exogeneous variables which are occurred by the result of MACD process. Afterwards, exogeneous variable series is used in VAR process for anticipate the next value. The details of EMAVAR model is explained like as follows. First of all, obtained data from KAP which is the daily (5-days a week) closing stock prices of BIST-100 and the banking sector between 2012-2018, is rearranged to make healthy forecast. Missing data (by occurred because of public holidays) is eliminated with linear interpolation and process have been continued. Additionally, 6 years full data set is divided 1 year and 2 years parts with the purpose of the independence of historical data. After that, MACD process is applied on different data arrengement seperately. The stationarity of all obtained series from MACD is recognized with Unit Root Test. Finally, the VAR model is applied on this different series. In addition, one of other forecasting of time series model is Autoregression (AR) model. The autoregression can be used to forecast an arbitrary number of periods into the future. AR is used on the same data sets to compare and show the good estimation of EMAVAR model. To sum up, EMAVAR model is compared to AR model. According to the result of researches and experiments, EMAVAR model is better than the other is in 2 years. 81
- Published
- 2019
43. Yüksek boyutlu model gösterilimi yöntemi ile dijital mamogramlarda meme kanseri tanısı
- Author
-
Karacan, Kübra, Tunga, Burcu, and Matematik Mühendisliği Ana Bilim Dalı
- Subjects
Matematik ,Mathematics - Abstract
Giderek gelişen teknolojik gelişmelerle birlikte yapay zekanın kullanımı günlük yaşantımızda yaygınlamaya başlamıştır. Sağlık sektöründe de gün geçtikte artan kullanımıyla yapay öğrenme algoritmaları hayati önem taşımaktadır. Bilgisayar Destekli Tanı sistemlerinin gelişmesiyle birlikte yanlış tanı riski azaltılmaya ve erken tanı imkanı artmaya başlamıştır. BDT sistemleri, erken ve doğru teşhisin hayati önem taşıdığı kanser gibi ölümcül hastalıkların seyrini değtirecek niteliktedir.Bu tez çalışmasında Yüksek Boyutlu Model Gösterilimi yöntemi ve çeşitli gözetimli makine öğrenmesi yöntemleri kullanılarak meme kanseri teşhisi otomatikleştirilmiş tir. Yeni bir algoritma geliştirilmiş ve sadece mamogram görüntüleri kullanılarak meme kanseri tanısı üzerine çalışılmıştır. Bu çalışmamın özgün tarafı , Yüksek Boyutlu Model Gösterilimi yönteminin ilk kez meme kanseri tanısı için kullanılmış olmasıdır. IRMA veri tabanından elde edilmiş mamogramlara, YBMG yöntemi uygulanmış ve YBMG bileşenleri hesaplanmıştır. Bu bileşenler, meme kanseri tanısında öznitelik olarak kullanılmıştır. Bu çalışmada YBMG aynı zamanda bir kontrast iyileştirme yöntemi olarak ele alınmış ve durumlara göre ayrılmış veri kümelerine uygulanmıştır.Yüksek Boyutlu Model Gösterilimi yöntemi bir böl yönet algoritmasıdır. Günümüzde çok çeşitli uygulamaları olan bu yöntemin meme kanseri tanısı için kullanılması uygulaması da bu tez çalışmada yapılmıştır. Yüksek Boyutlu Model Gösterilimi Yöntemi, karesi integrallenebilen çok değişkenli bir fonksiyonu, daha az bağımsız değişkenli fonksiyonların toplamı şeklinde yeniden temsil etmeye yarayan bir yöntemdir. Daha az işlem yükü gerektiren problemlerde kesme yaklaştırım fonksiyonları kullanılabilir. Bu çalışmada da ikinci dereceye kadar olan terimlerden oluşan YBMG denklemi esas alınmıştır. Bu çalışmada meme görüntülerinden elde edilmiş YBMG bileşenleri ve bu bileşenlerin istatistiksel varyansları birer öznitelik olarak kabul edilmiştır. Öznitelik matrisleri YBMG bileşenlerinin çeşitli durumlarına göre oluşturulmuştur. Bu öznitelik matrisleri kullanılarak mamogramlar 3 farklı durumda incelenmiştir. Sırasıyla normal, iyi huylu ve kanser, kanser olan ve olmayan ve kitle olan ve olmayan durumlarını içeren veri kümeleri oluşturulmuş ve öznitelik matrisleri bu durumlarda elde edilmiştir. Gözetimli makine öğrenmesi yöntemleri kullanılarak yöntemin başarısı sınanmıştır. Meme kanseri tanısı için geliştirilen algoritma sınanmış ve çalışmada tablolar halinde sunulmuştur. IRMA veri kümesinden elde edilen görüntüler herhangi bir görüntü iyileştirme işlemi uygulanmadan bu sonuçlar elde edilmiştir. Çıkan sonuçlar karşılatırılmış ve farklı arayışlara yönelinmiştir. Elde edilen skorları arttılabileceği düşüncesiyle her bir mamaograma kontrast iyileştirme işlemi uygulanmıştır. Meme görüntülerine kontrast iyileştirme tekniklerinden olan Kontrast Sınırlı Uyarlamalı Histogram Eşitleme yöntemi ve Yüksek Boyutlu Model Gösterilimi yönteminin kontrast iyileştirme için geliştirilmiş algoritması uygulanmıştır. Bu yöntemler uygulandıktan sonra başarıları sınanmış ve karşılaştırılmıştır. Bu çalışmada kontrast iyileştirme teknikleri arasındaki skor farklarının anlamlı olup olmadığına t testi uygulanarak bakılmıştır. Normal iyi huylu ve kanser veri kümesi için YBMG ve CLAHE yöntemleri arasında istatiski bir fark gözlemlenirken kanser ve kanser değil, kitle var ve kitle yok veri kümeleri için anlamlı bir fark gözlemlenmemiştir. Tüm veri kümeleri ve skorlara bakıldığında en yüksek test başarısı %89 olarak elde edilmiştir.Geliştirilen özgün yöntemin performansı, mamogramların durumlara göre ayrılmış veri kümelerine ve oluşturulan öznitelik matrislerine göre sınanmış ve karşılaştırma yapılmıştır. YBMG bileşenlerinin öznitelik olarak değerlendirilebileceği düşüncesine, elde edilen başarılı sonuçlar neticesinde ulaşılmıştır. With the advances in computer technologies, the use of artificial intelligence has started to become widespread in not only our daily life but also in the health sector. Computer Aided Diagnosis (CAD) systems have reduced the risk of misdiagnosis and increased the possibility of early diagnosis. CAD systems have the potential to positively affect the course of deadly diseases such as cancer. In this study, we developed a computer-aided diagnosis algorithm based on the High Dimensional Model Representation (HDMR) method and various supervised machine learning methods. That is, we try to design an automated diagnosis algorithm for breast cancer diseases using mammogram images. This algorithm has two main steps. The first step is that the HDMR components which are features for the mammograms are obtained using HDMR decompositions method and the second one is to cluster the mammograms using machine learning algorithms such as k-nearest neighborhood algorithm, support vector machine, logistic regression, linear discriminant analysis, decision trees algorithms, random forest.HDMR is a method used for function and data decomposition and image enhancement. In other words, HDMR is a divide-and-conquer method which is used for a low dimensional representation of a multivariate function. In this multivariate function, the constant term f0, the univariate terms fi(xi) and the bivariate terms are represented in the form of fij(xi,xj).HDMR can be applied to N-dimensional multivariate data set and as a result 2 to the power N number of less variate data sets are obtained. Since images in RGB format have three-dimensional array structure.2 to the power 3 data sets are gained. These are named as constant term, univariate terms and bivatiate terms. Here we assume an image in RGB format as n1*n2*n3 dimension . Since RGB has 3 channels for pictures, n3 is always equal to 3. As it seen that there are seven components of HDMR are given here. The last remaining term is just calculated that the given above components are subtracted from the original image. Since HDMR method represents the original image exactly, the remaining term is out of scope.HDMR method has many applications in various fields. In this study, we use this method to decomposed the mammograms with HDMR in this study. The original aspect of this study is that the HDMR method was used for the first time to diagnose breast cancer. Mammogram images were drawn from the IRMA database. We used the different combinations of main HDMR components and statistical properties to build six different feature matrices. We trained various supervised machine learning algorithms to classify the patients. We used three different classification modes, with labeling the set as normal-benign-malign, normal-abnormal or cancer-not cancer. We reported and compared the accuracy scores of each method. First of all, a data set which was not used any contrast enhancements methods take for processing. Afterwards, image enhancement techniques were applied and a new data set was created. For the two datasets, three different paths were applied similarly.First way; For the data set containing normal, benign and cancer states, the YBMG components of each mammogram were calculated. The calculated components were transformed into an attribute matrix in 6 formats, each with the same path.Second way; HDMR components were calculated for a data set containing cancer and non-cancer states.The third way; HDMR components of mamaograms containing masses and mass disappearances were calculated. Similarly, attribute matrices were formed and achievement scores were obtained.In summary, the attributes to be measured with success were determined and a vector was created by adding to the tip. We also tested whether contrast enhancement methods increase the accuracy or not and found that Contrast Limited Adaptive Histogram Equalization (CLAHE) does not affect the prediction accuracy, while HDMR significantly increased the success up to 89% when used as a contrast enhancement method.In this study we found that HDMR is a successful method to extract features from mammograms for using in artificial learning algorithms and we confirmed that HDMR is an effective contrast enhancement method in medical image processing. 83
- Published
- 2019
44. Development of a smart connected application for performance tuning on HPC
- Author
-
Kösedağ, Meltem, Tunga, Burcu, and Kimya Mühendisliği Ana Bilim Dalı
- Subjects
Computer Engineering and Computer Science and Control ,Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontrol - Abstract
Veri bilimi, karmaşık problemleri analitik olarak anlamak ve çözümlemek içinistatistik, matematik ve bilgisayar bilimlerini bir arada kullanan çok disiplinli biralandır. Veri biliminden tamamen bağımsız olduğunu söyleyemesek de, yüksekperformanslı bilgi işlem de karmaşık sistemlerin hesaplanması, modellenmesi vesimülasyonu ve büyük miktarlarda ölçülen verilerin işlenmesi için kullanılan bir araçolarak günümüzde hızla önem kazanmaktadır. Bilimsel yüksek performanslı bilgiişlem kısaca performans geliştirmek için kullanılır. Amaç, mümkün olan en iyi kaynakve destekle yüksek performanslı bilgi işlem gerektiren araştırma projeleri sağlamaktır.Burada vurgulanan araştırma, yüksek performanslı bilgisayarların kullanımı vesimülasyon sonuçlarından iç görü elde etmek ve performans ölçümlerinikolaylaştırmak için yapılmaktadır.Bu yüksek lisans tezinde, Lichtenberg yüksek performanslı bilgisayarlar kümesindebulunan yüksek performanslı bilgisayarların tahsis ve kullanım yönetiminiiyileştirmek amacıyla yapılan uygulama geliştirme projesi sunulmaktadır. LichtenbergHPC kümesindeki bilgisayarları projelerinde kullanmak üzere alan ve kaynak talebintebulunan kulanıcılar, araştırmacılar, öğrenciler veya firmalar olabilir. Proje sahipleri,projelerinin onaylanmasıyla birlikte, projeleri için çalıştıracakları programların HPCbilgisayarlarından hangisi veya hangileri tahsis edildi ise onlarda çalıştırılması için nekadar kaynak talep ettiklerini, iş talebi (job request) adı altında, projenin yürütülmesiiçin kaynaklardan sağlanacak olan gereksinimleri belirterek programlarınıcalıştırmaya başlarlar. Projelerin başlangıcından bitişine kadar geçen süreçte her birproje ve bu projeleri oluşturuan alt programların çalıştırılması için ne kadar yüksekperformanslı bilgisayar, CPU ve hafıza tahsis edildiği bilgisi sistemde bulunmaktadır.Bu bilgiler kullanıcının projeyi yürütmek için sistemden talep ettiği kaynak verileriolup, bu verilere ek olarak sistemde projelerin kullandığı kaynak bilgisi de xxiibulunmaktadır. Bu kümenin tahsis yönetiminde, öncelikle haftalik olarak projelerinharcadiklari hafıza, bilgisayar sayısı gibi kaynak ölçümü yapılır ve analiz edilir. Buyönetim için verilerle gerekli hesaplamaların yapılması, en çok kaynak kullananprojelerin belirlenmesi ve analizler sonucunda bu projelerin sahipleri ile iletişimegeçilmesi şeklinde ilerleyen bir süreç yürütülmektedir. Bu süreç sayesinde projelerdeiyileştirmeye gidilmesi için yukarıda belirtilen işlemleri, kullanıcıya destek verilmesive/veya proje kaynaklarının yönetilmesi gibi adımlar takip eder. Ancak bu yükseklisans tezi kapsamında, sürecin en başında veri tabanı düzeyinde gerçekleştirilenhesaplamalar, hespalamaların sonucunda oluşturulan histogramlar, raporlar veistatistiklerin programatik yönetim sürecinin iyileştirilmesi ele alınmıştır. Budeğerlendirme sürecinin en kolay ve pratik şekilde yapılması için sistemin öncedensahip olduğu dosya yapısının derlenmesi, programların otomatize edilmesi ve tümişlemlerin uygulama düzeyinden veri tabanı düzeyine indirgenmesi, bununla beraberzamandan ve enerjiden kâr edilmesi gerekmektedir. Bu uygulamanın, kullanıcılaradına zamandan ve enerjiden kâr etmek, HPC kümesinin kullanımı adına ise kaynakyonetimini yapmak amacıyla geliştirilmesi ve geliştirmenin tamamlanması ile yapılanpratik ve teorik karşılaştırmalarda uygulamadan beklenen verimin alınmasıhedeflenmiştir. Lichtenberg yüksek performanslı bilgisayar kümelerinde yapılan buçalışmanın tamamı, bu yüksek lisans tezine konu olmaktadır.Bu yüksek lisans tez çalışmasına başlanmasının sebebi, sistemdeki eski yapının yeterlidüzeyde otomatize olmaması, eski uygulamada yapılan işlemlerin, uygulamanınhedeflenen ve başarıyla uygulanan yeni yapınn tamamının kapsadığı işlemleri,kullanıcı gücüyle birden cok kez farklı parametrelerle çalıştırılması ile yapılması,uygulamanın başlamasından bitmesine kadar geçen sürenin çok uzun olması ve bununkullanıcı için olumsuz bir etken olması, bu bağlamda kullanıcıya pahalıya mâlolmasıdır. Bu aşamada işlemleri C++ kod tabanından çıkarıp, veritabanı seviyesindetamamlamak üzere SQL yapısına entegre etmek ve uygulama aşamasında yalnızcaSQL yardımı ile işlenmiş ve üretilmiş olan verileri veritabanından alarak, programınçalışma süresinde onların yalnızca sunumu ve raporlanması ile zamandan, enerjidenve donanımsal kaynaktan kazanarak kullanıcıya kolaylık sağlamak olmuştur. Bubağlamda, veri tabanında çalışma bilgileri bulunan tüm programların çalıştırılmadetayları ile gerekli hesaplamaların yapılması, veri dönüşümlerinin gerçekleşmesi veböylece analizlerin kullanıcının anlamlandırabilmesi için uygun, mantıklı ve kullanışlı xxiiihale getirilmesi gerekmiştir. Analizlerin yapılması ile birlikte bazı hesaplamalıişlemler sonucunda yeni veriler üretilmiş ve bu üretilen verilerin de yönetilmesi veyorumlanması gerekmiştir. Üretilen verilerde kaynakların nasıl değerlendirileceğiçalışma süresince kararlaştırılmıştır. Bu açıdan sisteme en çok maliyet oluşturanprojelerin sıralanması ve derecelendirilmesi sonucunda en çok kaynak kullanan veverimli kullanim açısından kendisine tahsis edilen kaynağı en kullanışsız şekildekullandığı belirlenen projeler, bu projelere ait alt görevler ve asıl hedef olankullanıcılar belirlenmektedir. Kullanıcıların belirlenmesi ile bu kullanıcılarınçalıştırdığı diğer projeler ve alt görevleri de belirlenir. Ayrıca bu kullanıcıların diğerprojelerinin yanı sıra, bu projelerde görev alan, bu kullanıcılar dışındaki diğer yankullanıcılar da belirlenir. Bu sureci programatik olarak, analizinin yapılması istenenperiyotlarla programın çalıştırılması oluşturur. Bu islemlerin en başında sistemdekiverilen işlenmesi ile veri madenciliği yapılmaktadır ve bu işlemlerin tamamı veritabanında gerçekleşir. Veri tabanında üretilen sonuçların kullanıcıya sunulması,histogramlar ve raporlar yardımıyla yapılır. Bu sonuçların değerlendirilmesi sürecisistem sahibi tarafından sistem dışında manuel olarak ilerlemektedir. Sistemde yapılanveri analizi sonucunda belirlenen kullanıcıların nasıl ve neye göre tespit edildiği,yapılan analizlerin hangi etkenler ve standartlar baz alınarak yapıldığı, karar aşamalarıve alınan bağlantılı aksiyonların tamamı; yaklaşımlar ve beklentiler bazında bu tezçalışmasında sunulmuştur. Bu uygulamanın geliştirilmesi ile, periyodik olarak yapılananalizler için harcanan süre ve programın çalıştırılması için harcanan kaynak gözlegörülür bir şekilde azalmış olup, HPC yönetim sürecinde ise performans ve kaynaktahsis düzenlemesi adına tüm işlemsel adımları tek seferde tamamlayarak kullanıcıyabüyük oranda kolaylık sağlamıştır. Bu tez çalışması, tercih edilen sistem kullanımanaliz yaklaşımı, performans yönetiminde hangi mevcut yazılımsal fonksiyonlardanve donanımsal kaynaklardan yararlanılacağını, iyileştirmedeki beklenti aralığını, HPCkümelerinin tahsisinde alınan yanlış kararların tespitini, performans ve hafıza kullanımsorunlarının değerlendirilmesini, veri analizi süreçlerini, uygulamanın sisteme entegreedilmesini ve yapılan çalışmalar sonucu sistemde yer alan yeni uygulamanın eskiyapıya göre ne kadar daha kârlı olduğunu gösteren genel aşamalar barındırmaktadır. Data science is a multidisciplinary field that uses statistics, mathematics and computerscience to analytically understand and solve complex problems. Although we cannotsay that it is completely independent of data science, high-performance computing(HPC) is rapidly gaining importance as a tool for calculating, modeling and simulatingcomplex systems and processing large amounts of measured data. Briefly, scientifichigh-performance computing is used to improve performance. The aim is to provideresearch projects that require high performance computing with the best possibleresources and support. The research highlighted here is done to get insight from theuse of high-performance computers and simulation results and to facilitateperformance measurements.At this stage, the main task that should be fulfilled for the techniques to determine thedual program similarity after the study is to make the necessary analysis in thecomputer cluster we work in first.In order to fulfill this condition, it is necessary to make the data-level operations relatedto the execution details of all programs with runtime information in the database, tomake the data transformations and thus to make the analyzes meaningful, logical anduseful to the end user.With the analysis done, the projects that use the most resources as the result of theranking, the sub-tasks of these projects and the users with their executives aredetermined. By identifying users, other projects and sub-tasks of these users are alsodetermined. In addition to other projects of these users, other users who are workingon the same project with these users are also determined. This determination processis being done in the database with data analysis studies.The study for the determination and analysis process and the results of the analysis andthe results of this analysis is the content of this master thesis.xxIn this thesis, how and what the users were determined, what factors were done basedon the analysis, decision stages and related actions are presented. With this research,it is inevitable to have a clear suggestion on how to improve performance by presentingthe results obtained to the relevant people.In this thesis, which is studied in Lichtenberg Cluster specially, the structuraldevelopment of the application, which is a smart connection to the database of theprojects, is mentioned with its infrastructural features. This structural development isaccomplished in order to reach the users in Lichtenberg HPC cluster, who areidentified by analyzing their project data according to the conditions of data andsystem usage determined earlier, take into account the other components mentionedabove from the user list obtained with real reasons for maintenance and support theimprovement of the projects.From this point of view, this thesis includes basic and general stages such asdetermining performance and memory usage problems in HPC field, performing dataanalysis, problem identification, tool development and offering solution suggestions 97
- Published
- 2019
45. Yüksek boyutlu model gösterilimi ile görüntü kümeleme ve görüntü erişimi
- Author
-
Karcili, Ayşegül, Tunga, Burcu, and Matematik Mühendisliği Ana Bilim Dalı
- Subjects
Digital image analysis ,Matematik ,Digital image processing ,Digital image ,Mathematics - Abstract
Bu tez çalışmasında, ele alınan bir görüntünün benzerlerinin büyük bir veri tabanından bulunup getirilmesi anlamına gelen içerik tabanlı görüntü erişimi problemi ele alınmış ve bu konuda özgün bir yaklaşım ortaya konmuştur. Önerilen yaklaşım, görüntülerin içeriklerinin Yüksek Boyutlu Model Gösterilimi (YBMG) yöntemiyle analiz edilmesini içermektedir. YBMG yöntemi etkin bir veri bölüntüleme ve boyut indirgeme yöntemidir ve hesaplama karmaşıklığı düşük olduğundan oldukça hızlı çalışmaktadır. Büyük ölçekli veri tabanlarında görüntü erişimi problemine uygulandığında da yüksek bir başarı göstermiştir. Bu çalışmada ayrıca, algoritmayı daha da hızlandırmak amacıyla, veri tabanındaki görüntülerin öncelikle kümelenerek benzer görüntülerin bir arada olduğu küçük veri tabanlarının oluşturulması önerilmektedir. Kümelemenin ardından yapılan görüntü erişimi çalışmasında, ele alınan bir sorgu görüntüsü için en yakın küme tespit edilmekte ve bu görüntünün benzerleri yalnızca bu küme içinde aranmaktadır. YBMG yöntemi, hem ilk aşamada veri tabanı görüntüleri kümelenirken hem de ikinci aşamada görüntü erişimi yapılırken kullanılmaktadır ve bu yöntemle görüntüleri temsil edecek düşük boyutlu veriler hesaplanmaktadır. YBMG yöntemi, bir ayrıştırım yöntemidir. Verilen çok değişkenli bir fonksiyonun sabit terim, tek değişkenli terimler, iki değişkenli terimler ve bu şekilde giderek artan sayıda değişkene bağlı terimlerin toplamı olarak yeniden ifade edilmesini sağlamaktadır. Bu yöntemle aynı zamanda çok değişkenli veriler de daha az değişkenli bileşenlere ayrıştırılabilmektedir. Bu tez çalışmasında görüntüler, birer çok değişkenli veri olarak ele alınmış ve her birine YBMG ayrıştırımı uygulanmıştır. Görüntü ayrıştırımıyla elde edilen bileşenler sabit, vektör veya matris yapısındaki verilerdir. Çalışmanın ilk basamağı olan kümeleme aşamasında, öncelikle veri tabanındaki her bir görüntüye YBMG ayrıştırımı uygulanarak düşük boyutlu veriler elde edilmiştir. Bu veriler orijinal çok boyutlu görüntünün yerine kullanılarak kümeleme yapılmıştır. Burada, belirlenen düşük boyutlu iki ayrı veri çeşidinin üç farklı kümeleme yöntemi ile kümelenmesi durumları üzerinde çalışılmıştır. Görüntü erişimi basamağına gelindiğinde ise ilk olarak, bir sorgu görüntüsü ele alınmış ve kümeleme basamağında elde edilen kümeleme ölçütleri kullanılarak bu görüntünün en yakın olduğu küme, yani hedef küme saptanmıştır. Ardından seçilen bir YBMG verisi hem sorgu görüntüsü hem de hedef kümede bulunan görüntüler için hesaplanmış ve bu veri kullanılarak görüntü erişimi yapılmıştır. Bu basamakta tercih edilen düşük boyutlu YBMG verileri, kümeleme basamağında tercih edilen verilere göre daha yüksek boyutludur ve görüntüleri daha iyi temsil etmektedir. Bu veriler esas alınarak hedef kümede bulunan görüntülerden, sorgu görüntüsüne karesel Öklit uzaklığı ölçüsüne göre en yakın olan görüntüler sırayla getirilmiştir. Getirilen görüntülerden belirlenen ilk bir kaç tanesinin, sorgu görüntüsü ile aynı objeye ait olup olmadıkları değerlendirilmiştir. Değerlendirme çalışmasında, görüntülerin getirilme sıralarını da dikkate alan azalan kümülatif kazanç yöntemi kullanılmıştır. Elde edilen kazanç, ideal durumda elde edilecek olan kazanca oranlanmıştır. Önerilen iki aşamalı bu sistem, COIL-100 görüntü veri tabanı üzerinde yapılan deneysel çalışmalarla sınanmış ve oldukça yüksek başarı oranları elde edilmiştir. Önerilen yöntemlerden bazıları % 100 başarı oranı vermiştir.Bu özgün yaklaşım, daha iyi bir değerlendirme yapabilmek amacıyla, kümeleme basamağının bulunmadığı çalışmalarla ve YBMG yöntemi yerine Temel Bileşen Analizi yönteminin kullanıldığı başka çalışmalarla karşılaştırılmıştır. Önerilen yaklaşımın başarı oranları ve özellikle de hesaplama süreleri bakımından daha avantajlı olduğu görülmüştür. Content based image retrieval means retrieving similars of a considered image from a large image database by means of mathematical methods and computer systems. This is a significant field of study in image processing because of increasing needs in a wide range of application areas such as commercial advertisements, criminal cases, security systems, artificial intelligence studies, etc. This thesis proposes a novel method in this field which contains analyzing the contents of images by High Dimensional Model Representation (HDMR) method. HDMR is an effective method in data partitioning and dimensionality reduction and it works fast since its computational complexity is considerably low. Therefore it has succeeded in image retrieval problem when it is used to reduce the dimension of images each of which is a high dimensional datum. In addition, to speed up the algorithm even more, the images in database are proposed to be clustered first to obtain small groups in which similar images are together. After clustering step, for a considered query image the closest cluster is determined and the similars of the query image is searched in that cluster. Both in the clustering and the retrieval steps the HDMR method is utilized. HDMR expansion for a given multivariate function is a finite sum which consists of constant term, univariate terms, bivatiate terms and so on. Each term is uniquely determined in the given order from the given multivariate function using formulas for HDMR terms. Due to the structure of HDMR, all the terms are orthogonal to each other and the lower variate terms which are calculated earlier carry higher amount of information of the original function. Thus this method is commonly used to approximate the given function by truncating after some terms.This method for multivariate functions has also been adapted for multivariate data. Multivariate data is similarly decomposed and then approximated by its terms using formulas for HDMR data decomposition. In this thesis, an RGB image as a three-way array is considered as a trivariate datum and decomposed using HDMR formulas to reduce dimension, in other words, to obtain lower dimensional terms. These terms represent the original image very accurately owing to HDMR's powerful mathematical structure and are calculated very quickly owing to its low computational complexity. When the method is applied on an RGB image, the constant, univariate and bivariate terms are obtained as constant, vectors and matrices respectively. The trivariate term which is a three-way array corresponds to margin of error and calculated by subtracting all the previous terms from the original image. In this thesis, a two-step image retrieval system is proposed. In the first step of the proposed methods, f0 or f3 term of HDMR is calculated for each image in the database and used for clustering the images. These terms, which are considerably low dimensional, have been selected to be used because this study proposes the clustering step to speed up the retrieval process by coping with the problem of large scale image database. Clustering is executed using three different clustering methods: equal interval size clustering, k-means clustering and equal number of elements clustering. Clustering studies via two different HDMR terms and using three different clustering methods are performed completely separately. In this regard an analysis-based study is followed. The clustering criteria obtained in these clustering studies are kept to be used in the second step. When it comes to the retrieval step, a query image which does not exist in the database is taken for investigation. The closest cluster for that image is determined using the criteria obtained in the clustering step. Then a chosen HDMR data is calculated for both the query image and the images in the closest cluster to be used in the retrieval process. Using these data the closest images to the query image according to squared Euclidean distance measure are retrieved in order. The HDMR data which are used in this step have higher dimensions than the ones which are used in the clustering step and thus represent the original image better. One of the representation terms used is f1 term. The vector obtained by attaching f1, f2 and f3 terms end-to-end is used as another tool. Lastly the univariate HDMR approximation which is the superposition of f0, f1, f2 and f3 is examined. Studies with these representation data are performed separately. The retrieved images are evaluated in terms of whether or not they belong to the same object as the query image, taking into account of their order in the list. For this purpose the discounted cumulative gain method is used. This is a method of calculating the gain of each retrieved image by discounting with respect to the order number of that retrieved image in the result list. The gain value is calculated by accumulation throughout the retrieved images. In this study, the obtained gain value is divided by the value which will be obtained in the ideal case to give the evaluation results as success rates. The proposed methods in this thesis were tested by experiments conducted on COIL-100 image database. This database includes 100 different objects and consists of 72 poses per object. Images of an object are at 5 degrees of rotation on a table around its own axis. For experiments of this thesis, randomly selected one image for each object was discarded from the database. These discarded 100 images were used as query images while the remaining 7100 images were used as the training set. Experiments were conducted on these separated image sets by implementing the algorithms on MATLAB. In these experiments the proposed methods gave significantly high success rates. In some studies, 100% success rate was obtained. The novel approach proposed in this study was also subjected to comparative analysis. Since one of the novel aspects of this approach is clustering, the proposed methods was firstly compared with methods which omit the clustering step and perform image retrieval directly. With this comparison, it was seen that the proposed methods are better than the methods without clustering in terms of computation times and, in some cases, success rates. A second comparison was made in terms of the preferred dimensionality reduction method. PCA (Principal Component Analysis) method is used instead of HDMR method for this comparison. HDMR gave better success rates and computation times with respect to PCA. The experiments and comparisons in this thesis have shown that using HDMR method for dimensionality reduction and clustering database images prior to retrieval are notably successful in image retrieval problem. 115
- Published
- 2018
46. Çokdeğişkenliliği yükseltilmiş çarpımlar üçköşegencil dizey gösterilimi ile görüntü işleme uygulamaları
- Author
-
Kuş, Orkun, Demiralp, Metin, Tunga, Burcu, and Hesaplamalı Bilimler ve Mühendislik Anabilim Dalı
- Subjects
Image restoration ,Image processing ,Computer Engineering and Computer Science and Control ,Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontrol - Abstract
Çalışmada incelenen problem, sayısal görüntü işleme konusu içerisinde yer almaktadır. Görüntülerin elde edilmesi, aktarılması veya bir başka sebepten dolayı üzerlerinde oluşan gürültüler problemin tanımını, çözüm yolunu ise Çokdeğişkenliliği Yükseltilmiş Çarpımlar Üçköşegencil Dizey Gösterilimi (ÇYÇÜDG) yöntemi oluşturmaktadır.Çalışmanın ilk bölümünde, yaklaştırım yöntemlerinin daha iyi anlaşılabilmesi için Tekil Değer Ayrışımı (TDA), Yüksek Boyutlu Model Gösterilimi (YBMG) ve Çokdeğişkenliliği Yükseltilmiş Çarpımsal Gösterilim (ÇYÇG) yöntemlerinin tanımları yapılmıştır. Bu yöntemlerden YBMG ve ÇYÇG yöntemleri aynı zamanda ÇYÇÜDG'nin de temelini oluşturmaktadır. Bir sonraki bölümde, sayısal görüntülerin kapsamındaki dizey (matris) yapılarından bahsedilmiş, görüntü türlerine değinilmiş ve hata ölçümlerinin tanımı yapılmıştır. Ayrıca, görüntülerin daha az sayıda bileşenler ile ifade edilebildiği görüntü sıkıştırmaya giriş yapılmış hem ÇYÇÜDG hem de TDA yöntemi ile uygulamalar gerçekleştirilmiştir. Çalışmanın son bölümünde ise görüntü onarımı işlenmiştir. Görüntülerdeki gürültü sebepleri ortaya konulmuş, bir kısmının tanımı yapılmış ve gerçek hayattakine benzer şekilde gürültüler görüntüler üzerine eklenmiştir. Çalışmanın ana hedefini oluşturan görüntülerdeki gürültülerin giderilmesi maksadıyla ÇYÇÜDG ve TDA kullanılmıştır. TDA'nın kullanım amacı, ÇYÇÜDG'nin güçlü ve zayıf yanlarının karşılaştırmalı olarak vurgulanmasıdır. Uygulamalar sonucunda bu bölümde elde edilen görüntülerdeki gürültüler istenilen anlamda giderilememiş ve kullanılan iki yönteme ek olarak bazı özel süzgeçlemelerden de faydalanılmıştır. ÇYÇÜDG'nin verimlilik ve geliştirilebilirlik anlamında, bundan sonraki çalışmalara yol açabilecek şekilde başlagıç koşullarının etkisi gösterilmiştir. In this study, an examined problem is situated in digital image processing area. The above definition of the problem consists when the noise occuring in obtaining the images, transferring or any other reason and the solution is constituted in Tridiagonal Matrix Enhanced Multivariance Products Representation (TMEMPR) method.In the first part of the study, to a better understanding of approaching methods, Singular Value Decomposition (SVD), High Dimensional Model Representation (HDMR) and Enhanced Multivariance Product Representation (EMPR) methods' definitions are given.In the next part, the scope of digital images matrix structure are mentioned, touched on the image type and the definition of measurement error is made. Additionally, image compression is introduced, applications are performed with both TMEMPR and SVD methods.In the last part of the study, image restoration subject is examined. Noise causes in images are presented, a few of the noise types are defined and the noises are added on images similar to a real life conditions. To eliminate noises in images for the purpose of forming the main objective of the study, TMEMPR and SVD methods are used. TDA method's purpose is to highlight the strengths and weaknesses in comparison to the TMEMPR. Noise in images obtained in this part could not be corrected in terms after applications, and also some special filtering methods are used in addition to this two methods, TMEMPR and SVD. In terms of efficiency and expandability, the effects of the TMEMPR method's initial conditions are studied that can lead to further researches. 83
- Published
- 2015
47. Yüksek boyutlu model gösterilimi yöntemi ile büyük ölçekli veri tabanlarında görüntü erişimi
- Author
-
Özütemiz, Önder, Tunga, Burcu, and Matematik Mühendisliği Ana Bilim Dalı
- Subjects
Matematik ,Mathematics - Abstract
Gelişen ve giderek yaygınlaşan teknoloji ile birlikte görüntüleme aygıtlarından elde edilen görüntülerin sayısında meydana gelen dikkate değer artış, ortaya analiz edilmesi ve işlenmesi gereken devasa büyüklükte veri tabanları çıkarmıştır. Görüntü işleme alanında, örnek bir görüntünün var olan bir veri tabanında bulunup bulunmadığının tespit edilmesi ve bu işlemin mümkün olan en kısa sürede ve yüksek doğruluk oranıyla yapılması önemli bir çalışma başlığıdır. Bu alanda öne çıkan ve üzerinde çalışılan veri tabanını daha kolay işlenebilir hale getirmeye çalışan araştırma başlıklarından bir tanesi de boyut indirgeme çalışmalarıdır. Bu çalışmada bir boyut indirgeme yöntemi olarak Yüksek Boyutlu Model Gösterilim Yöntemi'nin (YBMG) görüntü arama alanında nasıl kullanılabileceği ve ne gibi sonuçlar elde edilebileceği üzerinde durulmuştur. YBMG yönteminin özü, işlemesi görece daha zor olan çok değişkenli bir fonksiyonun ya da veri kümesinin böl ve yönet ilkesi temelinde işlemesi daha kolay olan daha az değişkenli fonksiyonların ya da verilerin toplamı şeklinde yeniden ifade edilmesi prensibine dayanır. YBMG yönteminin görüntülerin daha düşük boyutlu olarak yeniden ifade edilmesi konusunda başarılı olduğu daha önce bu konuda yapılan araştırmalar tarafından gösterilmiştir. Gerçekleştirilen deneysel çalışmalar, YBMG yönteminin ele alınan örnek bir görüntünün üzerinde çalışılan bir veri tabanında bulunup bulunmadığının tespit edilmesi, yani birebir eşleme ve bu örnek görüntüye benzer görüntülerin veri tabanından çekilmesi problemlerine bir çözüm olarak uygulanması ele alınan yöntemin gerek doğruluk hassasiyeti gerekse de işlem süresi bakımından dikkate değer avantajlar sağladığını göstermiştir. Deneyler sırasında çeşitli kategorilerde sınıflandırılabilecek ve görüntü işleme çalışmalarında sıkça başvurulan toplamda 30301 adet renkli görüntü içeren COIL, COREL ve LFW veri tabanları kullanılmıştır. Karşılaştırma amacıyla yöntem olarak boyut indirgemeyi kullanan, öne çıkan yöntemlerden biri olan PCA yöntemi ele alınmıştır. YBMG yöntemi, gerçekleştirilen deneysel çalışmalarda kullanılan bütün veri tabanlarında aranan bir görüntünün söz konusu veri tabanında yer alıp almadığını, karşılaştırılan diğer yöntemden 3-5 kat kadar daha kısa sürede ve % 100 doğruluk oranıyla bulurken, örnek görüntüye benzer görüntülerin veri tabanından çekilmesi probleminde de dikkate değer sonuçlar elde etmiştir. Ele alınan yöntemin büyük veri tabanlarında görüntü erişimi alanında göstermiş olduğu bu başarı görüntü işleme araştırmalarının diğer önemli çalışma başlıklarından olan sınıflandırma ve yüz tanıma gibi daha ileri çalışmalar için pozitif motivasyon kaynağı olmaktadır. This thesis study aims to apply the basic idea of dimension reduction of the HDMR method as a solution to image retrieval from a large-scale database problem. Previous researches on applying the HDMR method on image processing studies showed that this method is succesful in representation of images. During the performed experimental studies the pattern image and all images in the databese work on were subjected to HDMR method to get HDMR terms of images. Then by calculating and comparing the angles between univariate terms of the pattern image and all images in the database the target image was tried to find. The algorithm was setted to retrieval the image of the smallest angle with the pattern image. The HDMR method was used for two purpose in this study. First aim is to retrieve the same images from large scale databases by using a pattern image to determine if the pattern image exists in databases. It is a exact matching. The other purpose is retrieval of the similar images with the pattern image. During the experiments the common databeses for image processing researches of COIL, COREL and LFW were used to test the performance of the HDMR method in image retrieval. For comparison purpose, PCA which is one of the leading dimension reduction methods was used. Since PCA method works with very large matrices on large scale databases, it could not be executed on the databases mentioned above. To overcome this problem, new sub databases are setted from the main databases and for fair comparison the HDMR method was also applied on this new databases. At the end of the experiments it came to sight that the HDMR method is 100 % successful in accuracy for retrievaling the same image with the pattern image (exact matching) for all images from all databases mentioned above. In spite of this, the PCA method reached its highest accuracy with k=0.9 as 100 % in LFW face database, but its accuracy results for COIL and COREL databases are 86.67 % and 86.36 % respectively. Moreover the propopsed method is faster than the PCA method as 3-5 times in terms of the avarage image retrieval time per image. PCA method retrieves images from COIL, COREL and LFW sub databases averagely in 13.83, 21.37 and 34.12 miliseconds respectively when k=0.9 in the case it reaches its highest retrieval accuracy. On the other hand, HDMR method retrieves images from the same databases in 4.33, 5.14 and 6.65 miliseconds respectively. HDMR method reached also remarkable results in the problem of retriving the similar images with the pattern from large-scale databases. This study points up the fact that the HDMR method is a very efficient method in image retrieval from large-scale databases. For advanced researches it can be applied to classificaiton and face recognition problems. 63
- Published
- 2015
Catalog
Discovery Service for Jio Institute Digital Library
For full access to our library's resources, please sign in.