dc.contributor.author |
ÖZBEK, Mehmet Erdal
|
|
dc.date.accessioned |
2015-11-20T15:34:29Z |
NULL |
dc.date.available |
2015-11-20T15:34:29Z |
NULL |
dc.date.issued |
2009 |
|
dc.identifier.uri |
http://hdl.handle.net/20.500.12397/9223 |
NULL |
dc.description.abstract |
Bu tezde müzik enstrumanları sınıflandırılması için öznitelikler sunulmaktadır. Notaya dökme işlemi için müzik enstrumanlarının belirlenmesi, ayrıştırılması ve etiketlenmesi için müzik enstruman seslerinden ya da karışımlarından karakteristik bilginin ortaya çıkarılması hedeftir. Bu amaçla, hem zamanda hem de frekansta değişen müzik işaretlerinin ayrıştırıcı özelliklerini yakalayan zaman-frekans gösterimleriyle ilgilenilmiştir. Müzik enstruman seslerinden oluşan işitsel sahne özel bir kokteyl parti problemi olarak kabul edilerek, bağımsız bileşen analizi kullanarak tek kanallı gözü kapalı ayrıştırma problemi için bir çözüm sunulmuştur. Dalgacık tepeleri ile olduğu gibi, ana katkı müzik enstruman sınıflandırılması için yeni öznitelikler ve bu özniteliklerin destek vektör makineleri ile gerçekleştirilen çoklu-sınıf sınıflandırmalarla değerlendirilmesini içermektedir. Doğrudan zaman örneklerinden ve zaman-frekans gösterimi katsayılarından elde edilen dağılım model parametrelerinin entrumanların sınıflandırılmasına götüren bir öz bilgi içerdiği gösterilmiştir. Son olarak, ilintropi adı verilen çekirdek-tabanlı özilinti işlevi kullanılarak, müzik enstruman işaretlerinden temel karakteristik bilgi olarak temel titreşim frekansı ortaya çıkarılmıştır. In this thesis the representations for classification and separation of musical instruments are presented. The aim is to extract characteristic information from sounds of musical instruments or their mixtures, in order to identify, discriminate, and label for transcription of music. For this purpose, time-frequency representations are of interest which capture the discriminative properties of the musical signals changing both in time and frequency. Considering the auditory scene composed of the sounds generated from musical instruments as a special case of cocktail party problem, a solution for single channel blind source separation problem using independent component analysis is presented. As with wavelet ridges, the main contribution includes new features for musical instrument classification, and evaluations of the features using multi-class classifications performed with support vector machines. The distribution model parameters obtained from directly time samples and time-frequency representation coefficients are shown to contain an abstract information leading to classification of instruments. Finally, with the use of a kernel-based autocorrelation function named as correntropy, a basic characteristic information namely the fundamental frequency of musical instrument signals is extracted. |
en_US |
dc.language.iso |
en |
en_US |
dc.publisher |
DEÜ Fen Bilimleri Enstitüsü |
en_US |
dc.subject |
Musical instrument classiï¬cation, likelihood-frequency-time analysis, geneeralized Gaussian density modeling, alpha-stable distribution modeling, wavelet ridges,correntropy, support vector machines, independent component analysis.Muzik enstrumanı sınıflandırma, olabilirlik-frekans-zaman analizi,genelles¸tirilmis¸ Gauss yogunluk modellemesi, alfa-kararlı da ˘ gılım modellemesi, dalgacık tepeleri, ilintropi, destek vektor makineleri, ba ¨ gımsız biles¸en analizi. |
en_US |
dc.title |
Representations of musical instrument sounds for classification and separation |
en_US |
dc.title.alternative |
Sınıflandırma ve ayrıştırma için müzik enstruman sesleri gösterimleri |
en_US |
dc.type |
Thesis |
en_US |