Spisu treści:
Definicja - Co oznacza algorytm zejścia gradientu?
Algorytm opadania gradientu to strategia, która pomaga udoskonalić operacje uczenia maszynowego. Algorytm opadania gradientu działa w celu dostosowania wag wejściowych neuronów w sztucznych sieciach neuronowych i znalezienia minimów lokalnych lub minimów globalnych w celu zoptymalizowania problemu.
Algorytm opadania gradientu jest również znany po prostu jako opadanie gradientu.
Techopedia wyjaśnia algorytm zejścia gradientu
Aby zrozumieć, jak działa opadanie gradientu, najpierw pomyśl o wykresie przewidywanych wartości obok wykresu rzeczywistych wartości, które mogą nie być zgodne z ściśle przewidywalną ścieżką. Opadanie gradientu polega na zmniejszeniu błędu prognozowania lub luki między wartościami teoretycznymi a obserwowanymi wartościami rzeczywistymi lub w uczeniu maszynowym zestawu treningowego poprzez dostosowanie wag wejściowych. Algorytm oblicza gradient lub zmianę i stopniowo zmniejsza tę lukę predykcyjną, aby udoskonalić wydajność systemu uczenia maszynowego. Zejście gradientowe jest popularnym sposobem na udoskonalenie wyników ANN, gdy badamy, co mogą zrobić we wszelkiego rodzaju obszarach oprogramowania.
