Çokludoğrusal altuzay öğrenimi

Bir video veya çokludoğrusal altuzay öğrenimi için sütun x satır x zaman çarpımının bir imaj dizi olarak bir üç-sıralı gösterimi

(MSL) Çokludoğrusal altuzay öğrenme özel bir yapıya sahip çok boyutlu nesnelerin geniş bir alanda belirli bir küçük bir kısmını öğrenmeği hedefliyor.Vektörizasyon işlemine geçmeden,gönderme üzerinden yüksek-boyutlu tensör verilerinin belirli tercih özellikleri olan düşük-boyutlu gösterimini bulmak için bir boyut indirgeme yaklaşımıdır. [1][2] MSL terimi tensör için çok boyutlu diziler anlamına gelir. Tensör veri örnekleri (2D/3D) görüntü'ler içerir.(3D/4D) video dizileri ve hiperspektral küpler (3D/4D).Bir yüksek boyutlu tensör uzayından bir düşük-boyutlu tensör uzayına bir gönderme veya vektör uzayı çoklu doğrusal izdüşümü olarak adlandırılır.[1][3] MSL yöntemleri doğrusal alt uzayı öğrenme metodu olarak temel bileşen analizi (PCA), doğrusal diskriminant analizi (LDA) ve kanonik korelasyon analizi (CCA)'lerinin yüksek mertebeden genellemeleridir.Literatürde, MSL ayrıca tensör alt uzayı öğrenme ve tensör alt uzay analizi olarak adlandırılır.[2] MSL Araştırmaları 2000'lerdeki sezgisel araştırma'sından (on yıl) 2010'ların sistematik incelemesine kadar ilerlemiştir.

Altyapı

Veri toplama ve depolama teknolojisi'ndeki gelişmeler sayesinde , büyük veri (ya da büyük veri setleri) ortaya çıkan geniş bir yelpazede gelişmekte olan uygulama aralığı içinde bir günlük olarak oluşturulan verilerin çoğu çok boyutludur.Ayrıca,fazlalığın büyük bir miktarı olması nedeniyle çok yüksek boyutlu'lar kullanılır ve sadece giriş uzayının bir kısmını işgal eder.Bu nedenle, boyut indirgeme sık sık mümkün olduğunca çok bilgi koruyarak düşük boyutlu uzayda yüksek boyutlu verileri eşleştirmek için kullanılır.Doğrusal alt uzayı öğrenme,algoritma vektörleri ve bir düşük boyutlu uzaya bir optimal doğrusal gönderme için çözüm olarak veri girişlerinin gösteriminin geleneksel boyut indirgeme teknikleridir.Büyük boyutlu veri ile uğraşırken yazık ki, çoğu zaman yetersiz kalınır. Çok yüksek boyutlu vektörler ile sonuçlanabilir, parametrelerin çok sayıda tahminine ve aynı zamanda orijinal veri,doğal yapısını ve korelasyonu kırmaya yol açar.[1][2][4][5]

MSL tensör bozunması ile yakından ilgilidir .[6] Her ikisi de çoklu doğrusal cebir araçları kullanabilirler. MSL boyut indirgeme'ye odaklanırken fark ise tensör bozunması faktör analizinde odaklanır.MSL tensör-tabanlı hesaplamaya aittir [7] ve makinenin öğrenmesi tensör düzey hesaplamalı düşünce olarak görülebilir.Veri toplama ve depolama teknolojisindeki gelişmeler sayesinde, büyük veri (ya da büyük veri setleri) gelişmekte olan uygulamaları geniş bir yelpazede günlük olarak üretebiliyor. Bu büyük verilerin çoğu çok boyutludur. Ayrıca, artıklığın çok fazla olması nedeniyle, genellikle çok yüksek boyutludur ve sadece giriş uzayının bir kısmını işgal ediyor. Bu nedenle, boyut indirgeme ile sık sık mümkün olduğunca fazla bilgi korunurken düşük boyutlu uzaydaki yüksek boyutlu verileri eşlemek için kullanılır.

Çokludoğrusal izdüşüm

çoklu doğrusal alt uzayı öğrenmek için düşük boyutlu gösterimi bir tensöre dönüştürmeye Çokludoğrusal izdüşüm:Temel çoklu doğrusal izdüşüm (EMP), tensöre-vektör izdüşüm (TVP), ve tensörden-tensöre izdüşüm (TTP)

Bir çoklu doğrusal alt uzay haritası giriş tensör verilerinin bir uzaydan diğerine (düşük-boyutlu) uzay için bir çoklu doğrusal projeksiyonu yoluyla tanımlanır.Hitchcock nedeniyle Orijinal fikir 1927 yılında.[8]

Tensöre-tensör izdüşümü (TTP)

Bir TTP bir N inci-sıralı tensör N izdüşümü matrisleri kullanılarak, aynı sırayla düşük boyutlu tensör için yüksek boyutlu tensörün doğrudan bir yansımasıdır. Her adım, tensör matris çarpımı (ürün) performans ile N adımda gerçekleştirilebilir.N adımlar ile değiştirilemez.[9] Bu izdüşümü üst düzey tekil değer ayrıştırması'nın bir uzantısıdır.[9] (HOSVD) alt uzayı öğrenme.[4] Bundan dolayı, Tucker bozunması'ndan kaynaklandığını görürsünüz [10] in 1960s.

Tensöre-vektör izdüşümü(TVP)

Bir TVP da sıra-bir projeksiyonlar olarak adlandırılır düşük boyutlu bir vektör, bir yüksek boyutlu tensörünün doğrudan bir projeksiyonudur, Ayrıca bu, sıra-bir olarak adlandırılır .TVP bir vektöre bir tensör izdüşümü olarak, bir skalere bir tensör birden çok izdüşüm olarak görülebilir. Böylece,P-boyutlu vektöre bir tensörün TVP(izdüşüm) bir skalere tensör den P izdüşüm oluşur. Bir skalere bir tensör den izdüşümü bir temel çoklu doğrusal izdüşümü (EMP) dür. EMP'de, bir tensör N birimi izdüşümü vektörler aracılığıyla bir noktaya yansıtılır. Her modda tek bir izdüşümü vektörü, (bir skalar sonuçlanan) tek bir hat üzerinde bir tensörün projeksiyonudur. Bu nedenle, "P-boyutlu vektör uzayında bir vektöre bir tensör nesnesinin TVP'u olur P EMP'lerin oluşur. Bu kurallı bozunma'nın izdüşümsel bir uzantısıdır,[11] Ayrıca, paralel faktör'ler (PARAFAC) olarak bilinen bozunmadır[12]

MSL içinde Tipik yaklaşım

Çözülmesi gereken parametrelerin her mod içinde bir N seti vardır.. Bir dizi çözümü, genellikle (olduğunda N=1 olması dışında, doğrusal durum) sıklıkla diğer setlere bağlıdır.Bu nedenle'de suboptimal yinelemeli bir prosedür takip edilmektedir [13] is followed.

  1. Her modda projeksiyonların başlatılması
  2. Her mod için, tüm diğer modunda izdüşümü sabitleme ve mevcut modunda projeksiyon çözer.
  3. Birkaç tekrarlamadan veya yakınsama kadar akıllı-mod optimizasyonu olur.

Bu çok yönlü veri analizi için alternatif en küçük kareler yönteminden kaynaklanmaktadır.[14]

Olumlu ve olumsuz yönleri

Bu şekil vektör-vektör izdüşümü (VVP) tarafından Boyut indirgeme aynı miktarda tahmin edilecek parametre sayısını karşılaştırır, (yani, doğrusal izdüşümü,) tensör-vektör izdüşümü (TVP), ve tensör-to-tensör izdüşümü (TTP).Çokludoğrusal projeksiyonlar çok daha az parametreleri gerektirir ve elde edilen gösterimleri daha kompakt yapıdadır. (Bu şekil araştırma kağıdı Tablo 3'e dayalı üretilir[1])

MSL'nin avantajları:[1][2][4][5]

MSL'nin dezavantajları:[1][2][4][5]

Algoritmalar

Eğitsel kaynakları

Kodlar

Tensor veri kümeleri

Ayrıca bakınız

Kaynakça

  1. 1 2 3 4 5 6 Lu, Haiping; Plataniotis, K.N.; Venetsanopoulos, A.N. (2011). "A Survey of Multilinear Subspace Learning for Tensor Data". Pattern Recognition 44 (7): 1540–1551. DOI:10.1016/j.patcog.2011.01.004. http://www.dsp.utoronto.ca/~haiping/Publication/SurveyMSL_PR2011.pdf.
  2. 1 2 3 4 5 X. He, D. Cai, P. Niyogi, Tensor subspace analysis, in: Advances in Neural Information Processing Systemsc 18 (NIPS), 2005.
  3. Vasilescu, M.A.O.; Terzopoulos, D. (2007). "Multilinear Projection for Appearance-Based Recognition in the Tensor Framework". IEEE 11th International Conference on Computer Visioncc. ss. 1–8. DOI:10.1109/ICCV.2007.4409067.
  4. 1 2 3 4 5 H. Lu, K. N. Plataniotis, and A. N. Venetsanopoulos, "MPCA: Multilinear principal component analysis of tensor objects," IEEE Trans. Neural Netw., vol. 19, no. 1, pp. 18–39, January 2008.
  5. 1 2 3 4 S. Yan, D. Xu, Q. Yang, L. Zhang, X. Tang, and H.-J. Zhang, "Discriminant analysis with tensor representation," in Proc. IEEE Conference on Computer Vision and Pattern Recognition, vol. I, June 2005, pp. 526–532.
  6. T. G. Kolda, B. W. Bader, Tensor decompositions and applications, SIAM Review 51 (3) (2009) 455–500.
  7. "Future Directions in Tensor-Based Computation and Modeling". May 2009. 11 Ocak 2016 tarihinde kaynağından arşivlendi. http://web.archive.org/web/20160111183551/http://www.cs.cornell.edu:80/cv/TenWork/FinalReport.pdf.
  8. F. L. Hitchcock (1927). "The expression of a tensor or a polyadic as a sum of products". Journal of Mathematics and Physics 6: 164–189.
  9. 1 2 L.D. Lathauwer, B.D. Moor, J. Vandewalle, A multilinear singular value decomposition, SIAM Journal of Matrix Analysis and Applications vol. 21, no. 4, pp. 1253–1278, 2000
  10. Ledyard R Tucker (September 1966). "Some mathematical notes on three-mode factor analysis". Psychometrika 31 (3): 279–311. DOI:10.1007/BF02289464.
  11. J. D. Carroll & J. Chang (1970). "Analysis of individual differences in multidimensional scaling via an n-way generalization of 'Eckart–Young' decomposition". Psychometrika 35: 283–319. DOI:10.1007/BF02310791.
  12. R. A. Harshman, Foundations of the PARAFAC procedure: Models and conditions for an "explanatory" multi-modal factor analysis. UCLA Working Papers in Phonetics, 16, pp. 1-84, 1970.
  13. L. D. Lathauwer, B. D. Moor, J. Vandewalle, On the best rank-1 and rank-(R1, R2, ..., RN ) approximation of higher-order tensors, SIAM Journal of Matrix Analysis and Applications 21 (4) (2000) 1324–1342.
  14. P. M. Kroonenberg and J. de Leeuw, Principal component analysis of three-mode data by means of alternating least squares algorithms, Psychometrika, 45 (1980), pp. 69–97.
  15. H. Lu, K. N. Plataniotis, and A. N. Venetsanopoulos, "Uncorrelated multilinear principal component analysis for unsupervised multilinear subspace learning," IEEE Trans. Neural Netw., vol. 20, no. 11, pp. 1820–1836, November 2009.
  16. D. Tao, X. Li, X. Wu, and S. J. Maybank, "General tensor discriminant analysis and gabor features for gait recognition," IEEE Trans. Pattern Anal. Mach. Intell., vol. 29, no. 10, pp. 1700–1715, October 2007.
  17. H. Lu, K. N. Plataniotis, and A. N. Venetsanopoulos, "Uncorrelated multilinear discriminant analysis with regularization and aggregation for tensor object recognition," IEEE Trans. Neural Netw., vol. 20, no. 1, pp. 103–123, January 2009.
  18. T.-K. Kim and R. Cipolla. "Canonical correlation analysis of video volume tensors for action categorization and detection," IEEE Trans. Pattern Anal. Mach. Intell., vol. 31, no. 8, pp. 1415–1428, 2009.
This article is issued from Vikipedi - version of the 8/20/2016. The text is available under the Creative Commons Attribution/Share Alike but additional terms may apply for the media files.