Dom Audio Dlaczego pakowanie w uczenie maszynowe zmniejsza wariancję?

Dlaczego pakowanie w uczenie maszynowe zmniejsza wariancję?

Anonim

P:

Dlaczego pakowanie w uczenie maszynowe zmniejsza wariancję?

ZA:

Agregacja bootstrap lub „workowanie” w uczeniu maszynowym zmniejsza wariancję poprzez budowanie bardziej zaawansowanych modeli złożonych zestawów danych. W szczególności metoda workowania tworzy podzestawy, które często nakładają się na siebie, aby modelować dane w bardziej zaangażowany sposób.

Jednym z interesujących i prostych pomysłów na zastosowanie workowania jest pobranie zestawu losowych próbek i wyodrębnienie prostej średniej. Następnie, korzystając z tego samego zestawu próbek, utwórz dziesiątki podzbiorów zbudowanych jako drzewa decyzyjne, aby manipulować ostatecznymi wynikami. Druga średnia powinna pokazać dokładniejszy obraz tego, w jaki sposób poszczególne próbki odnoszą się do siebie pod względem wartości. Ten sam pomysł można zastosować do dowolnej właściwości dowolnego zestawu punktów danych.

Bezpłatne pobieranie: Uczenie maszynowe i dlaczego to ma znaczenie

Ponieważ takie podejście konsoliduje odkrycie w bardziej określonych granicach, zmniejsza wariancję i pomaga w przeładowaniu. Pomyśl o wykresie rozrzutu z nieco rozproszonymi punktami danych; stosując metodę workowania, inżynierowie „zmniejszają” złożoność i orientują linie odkrywcze w celu uzyskania płynniejszych parametrów.

Niektórzy mówią o wartości workowania jako „dziel i rządź” lub rodzaju „heurystyki wspomaganej”. Chodzi o to, że dzięki modelowaniu zespołowemu, np. Wykorzystaniu losowych lasów, ci, którzy używają workowania jako techniki, mogą uzyskać wyniki danych o mniejszej wariancji. Jeśli chodzi o zmniejszenie złożoności, worki mogą również pomóc w przeuczeniu. Pomyśl o modelu ze zbyt wieloma punktami danych: powiedzmy, połącz kropki ze 100 niewyrównanymi kropkami. Powstała wizualna linia danych będzie postrzępiona, dynamiczna, niestabilna. Następnie „wyeliminuj” wariancję, łącząc zestawy ocen. W zespołowym uczeniu się często uważa się to za dołączenie do kilku „słabych uczniów” w celu zapewnienia „silnej nauki” współpracy. Rezultatem jest płynniejsza, bardziej wyprofilowana linia danych i mniej dzikie wariancje w modelu.

Łatwo zobaczyć, jak pomysł workowania można zastosować w systemach informatycznych przedsiębiorstwa. Liderzy biznesu często chcą mieć „widok z lotu ptaka” na to, co dzieje się z produktami, klientami itp. Przebudowany model może zwracać mniej strawnych danych i więcej „rozproszonych” wyników, w których workowanie może „ustabilizować” model i uczynić go bardziej użytecznym do użytkowników końcowych.

Dlaczego pakowanie w uczenie maszynowe zmniejsza wariancję?