Makine öğrenmesinde ve istatistikde boyut azaltma, dikkate alınan rastgele değişkenlerin sayısını bir dizi temel değişken elde ederek azaltma işlemidir. Boyut azaltma işlemi özellik seçimi ve öznitelik çıkarma bölümlerine ayrılabilir.

Özellik Seçimi

Özellik seçiminde orijinal değişkenlerin bir alt kümesi bulunmaya çalışılır. Üç strateji vardır: filtre stratejisi, sargı stratejisi ve gömülü strateji.

Bazı durumlarda regresyon veya sınıflandırma, azaltılmış boyutta orijinal alana göre daha doğru yapılabilir.

Özellik Çıkarma

Özellik çıkarma veya öznitelik çıkartma, yüksek boyutlu boşluktaki verileri daha az boyutta alana dönüştürme işlemidir. Veri dönüştürme, temel bileşen analizi (PCA) gibi doğrusal olabilir, ancak pek çok doğrusal olmayan boyut azaltma teknikleri de mevcuttur. Çok boyutlu veriler için, tensör gösterimi çok boyutlu alt uzay öğrenimi yoluyla boyut azaltmada kullanılabilir.

Boyut Azaltma

Yüksek boyutlu veri kümeleri için (yani boyutların sayısı 10’dan fazla olan), boyut azaltma genellikle boyutsallık lanetinin etkilerinden kaçınmak için bir K-en yakın komşu algoritması(k-NN) uygulamadan önce gerçekleştirilir.

Özellik çıkartma ve boyut azaltma, temel bileşen analizi (PCA), doğrusal diskriminant analizi (LDA) veya kanonik korelasyon analizi (CCA) teknikleri kullanılarak bir ön işleme basamağı olarak K-NN tarafından özellik vektörleri üzerinde kümelenme izlenerek tek adımda azaltılmış boyutlu alanda birleştirilebilir . Makine öğrenmesinde bu işleme düşük boyutlu gömülü denir.

Boyut Azaltmanın Avantajları

  1. Gerekli zaman ve depolama alanını azaltır.
  2. Eşdoğrusallığın giderilmesi makine öğrenmesi modelinin performansını arttırır.
  3. 2D veya 3D gibi çok düşük boyutlara indirildiğinde verilerin görselleştirilmesi daha kolay hale gelir.

Referans:

https://en.wikipedia.org/wiki/Dimensionality_reduction

Designed by Freepik