Spisu treści:
Definicja - Co oznacza Łańcuch Markowa?
Łańcuch Markowa jest procesem matematycznym, który przechodzi z jednego stanu do drugiego w skończonej liczbie możliwych stanów. Jest to zbiór różnych stanów i prawdopodobieństw zmiennej, przy czym jej przyszły stan lub stan jest zasadniczo zależny od jego bezpośredniego poprzedniego stanu.
Łańcuch Markowa jest również znany jako dyskretny łańcuch Markowa (DTMC) lub proces Markowa.
Techopedia wyjaśnia Markov Chain
Łańcuchy Markowa są przede wszystkim używane do przewidywania przyszłego stanu zmiennej lub dowolnego obiektu na podstawie jego przeszłego stanu. Stosuje podejście probabilistyczne w przewidywaniu następnego stanu. Łańcuchy Markowa są prezentowane za pomocą ukierunkowanych wykresów, które określają aktualny i poprzedni stan oraz prawdopodobieństwo przejścia z jednego stanu do drugiego.
Łańcuchy Markowa mają kilka wdrożeń w technologiach komputerowych i internetowych. Na przykład formuła PageRank (r) stosowana w wyszukiwaniu Google wykorzystuje łańcuch Markowa do obliczania PageRank określonej strony internetowej. Służy również do przewidywania zachowania użytkownika na stronie internetowej na podstawie wcześniejszych preferencji użytkowników lub interakcji z nią.
