Dom Audio Co to jest algorytm spadku gradientu? - definicja z techopedia

Co to jest algorytm spadku gradientu? - definicja z techopedia

Spisu treści:

Anonim

Definicja - Co oznacza algorytm zejścia gradientu?

Algorytm opadania gradientu to strategia, która pomaga udoskonalić operacje uczenia maszynowego. Algorytm opadania gradientu działa w celu dostosowania wag wejściowych neuronów w sztucznych sieciach neuronowych i znalezienia minimów lokalnych lub minimów globalnych w celu zoptymalizowania problemu.

Algorytm opadania gradientu jest również znany po prostu jako opadanie gradientu.

Techopedia wyjaśnia algorytm zejścia gradientu

Aby zrozumieć, jak działa opadanie gradientu, najpierw pomyśl o wykresie przewidywanych wartości obok wykresu rzeczywistych wartości, które mogą nie być zgodne z ściśle przewidywalną ścieżką. Opadanie gradientu polega na zmniejszeniu błędu prognozowania lub luki między wartościami teoretycznymi a obserwowanymi wartościami rzeczywistymi lub w uczeniu maszynowym zestawu treningowego poprzez dostosowanie wag wejściowych. Algorytm oblicza gradient lub zmianę i stopniowo zmniejsza tę lukę predykcyjną, aby udoskonalić wydajność systemu uczenia maszynowego. Zejście gradientowe jest popularnym sposobem na udoskonalenie wyników ANN, gdy badamy, co mogą zrobić we wszelkiego rodzaju obszarach oprogramowania.

Co to jest algorytm spadku gradientu? - definicja z techopedia