Spisu treści:
- Definicja - Co oznacza nauka kwantyzacji wektorowej (LVQ)?
- Techopedia wyjaśnia uczenie się kwantyzacji wektorów (LVQ)
Definicja - Co oznacza nauka kwantyzacji wektorowej (LVQ)?
Ucząca się kwantyzacja wektorów (LVQ) to algorytm będący rodzajem sztucznych sieci neuronowych i wykorzystujący obliczenia neuronowe. Mówiąc szerzej, można powiedzieć, że jest rodzajem inteligencji obliczeniowej. Algorytm ten ma konkurencyjne podejście do uczenia się oparte na zasadzie „zwycięzca bierze wszystko” i jest również powiązany z innymi algorytmami sieci neuronowych, takimi jak Perceptron i propagacja wsteczna. Algorytm LVQ pozwala wybrać liczbę instancji szkoleniowych do przejścia, a następnie uczy się, jak wyglądają te instancje. LVQ został wynaleziony przez Teuvo Kohonena i jest powiązany z algorytmem k-najbliższego sąsiada.
Techopedia wyjaśnia uczenie się kwantyzacji wektorów (LVQ)
Podstawowym celem uczenia kwantyzacji wektora w zakresie przetwarzania informacji jest przygotowanie w dziedzinie obserwowanych próbek danych zestawu wektorów słownika. Ponadto wektory te są następnie wykorzystywane do klasyfikacji wektorów, które są niewidoczne. Początkowo składa się losowa pula wektorów, które są następnie poddawane próbkom szkoleniowym. Przy zastosowaniu strategii zwycięzca bierze wszystko wybiera się jeden lub te, które są najbardziej podobnymi wektorami do podanego wzorca wejściowego. Są one następnie dostosowywane w taki sposób, aby były bliżej wektora wejściowego lub czasami dalej od drugiego miejsca. Po powtórzeniu tego procesu powoduje rozkład wektorów słownika w przestrzeni wejściowej, który może aproksymować rozkład próbek leżących u podstaw zestawu danych testowych. Ten algorytm służy do modelowania predykcyjnego.