Spisu treści:
Definicja - Co oznacza propagacja zwrotna?
Propagacja wsteczna jest techniką stosowaną do trenowania niektórych klas sieci neuronowych - jest zasadniczo zasadą, która pozwala programowi uczenia maszynowego na dostosowanie się w zależności od jego przeszłej funkcji.
Wsteczne propagowanie jest czasem nazywane „wstecznym propagowaniem błędów”.
Techopedia wyjaśnia propagację wsteczną
Propagacja wsteczna jako technika wykorzystuje opadanie gradientu: Oblicza gradient funkcji straty na wyjściu i rozprowadza go z powrotem przez warstwy głębokiej sieci neuronowej. Wynik jest dostosowywany dla neuronów. Chociaż propagacja wsteczna może być stosowana zarówno w nadzorowanych, jak i nienadzorowanych sieciach, jest postrzegana jako nadzorowana metoda uczenia się.
Po pojawieniu się prostych sieci neuronowych ze sprzężeniem zwrotnym, w których dane idą tylko w jedną stronę, inżynierowie odkryli, że mogą wykorzystać propagację wsteczną do dostosowania wag wejściowych neuronów po fakcie. Propagacja wsteczna może być uważana za sposób wyszkolenia systemu w oparciu o jego aktywność, aby dostosować, jak dokładnie lub precyzyjnie sieć neuronowa przetwarza określone dane wejściowe lub jak prowadzi do innego pożądanego stanu.
