Przedziały predykcji (PP) oferują wygodny sposób kwantyfikacji niepewności prognoz, dlatego też znalazły szerokie zastosowanie w praktyce prognozowania popytu. PP mogą dostarczyć informacji o najlepszych i najgorszych scenariuszach, umożliwiając decydentom podejmowanie świadomych decyzji w oparciu o cenne informacje na temat nieuniknionej niepewności przyszłości, a także tworzenie odpowiednich planów awaryjnych. Na przykład wąskie PP oznaczają niski poziom niepewności predykcji, budując tym samym zaufanie decydenta do prognoz wykorzystywanych w procesie decyzyjnym, podczas gdy szersze wskaźniki PP mogą zniechęcać do podejmowania decyzji wysokiego ryzyka. Ogólnie rzecz biorąc, jakość PP jest oceniana pod kątem ich szerokości oraz pokrycia w danych historycznych. Wiarygodny, wysokiej jakości PP łączyłby duże pokrycie przyszłych obserwacji z małą – a tym samym informacyjną – szerokością przedziału.
Sieci neuronowe nie są oparte na dobrze zdefiniowanym modelu stochastycznym, dlatego nie jest łatwo wyznaczyć PP dla uzyskanych prognoz. Niemniej jest to możliwe, a do najczęściej wykorzystywanych metod, których można użyć do określenia niepewności prognozy dla nieliniowych modeli uczenia maszynowego należą:
Wspomniane powyżej tradycyjne podejścia najpierw generują prognozy punktowe, a następnie konstruują PP zgodnie z określonymi założeniami dotyczącymi danych lub rozkładu szumu (np. niezależne zmienne o identycznym rozkładzie, szum gaussowski, stała wariancja szumu). Takie restrykcyjne założenia często nie sprawdzają się w rzeczywistych aplikacjach, co powoduje, że PP mogą mieć niskie pokrycie dla testowego zestawu danych lub zbyt konserwatywnie wyznaczone granice.
W literaturze do oceny prognoz punktowych zaproponowano wiele miar związanych z błędami, takich jak średni bezwzględny błąd procentowy (MAPE) i średni kwadratowy błąd (MSE). Oczywiście nie jest możliwa ocena w ten sposób PP. Przegląd literatury wskazuje, że wysiłki badaczy koncentrują się głównie na konstrukcji PP, bez obiektywnej oceny ich jakości pod względem długości i prawdopodobieństwa pokrycia.
Metoda delty opiera się na interpretacji sieci neuronowej jako modelu regresji nieliniowej. To pozwala na wykorzystanie standardowego podejścia asymptotycznego przy konstrukcji PP. Załóżmy, że dana jest sieć ƒ :
Rozwinięcie Taylora pierwszego rzędu pierwszego funkcji (1) wokół prawdziwych wartości parametrów modelu Θ* można zapisać:
W metodzie bootstrapowej przyszłe ścieżki próbek są generowane przy użyciu reszt uzyskanych metodą bootstrapową lub symulacyjną [Hyndman & Athanasopoulos, 2018].
Niech dana będzie sieć neuronowa f dopasowana do danych:
(czyli wszystkie zmienne w tym szeregu mają skończoną taką samą wariancję, najczęściej zakłada się, że błędy mają rozkład normalny).
Można iteracyjnie symulować przyszłe ścieżki wynikające z tego modelu, losowo generując wartość dla ε, z pewnego założonego rozkładu, albo przez ponowne próbkowanie z wartości historycznych.
W ten sposób można iteracyjne uzyskać losową ścieżkę przyszłych wartości prognozowanego szeregu. Wielokrotnie symulując przykładowe ścieżki, budujemy wiedzę o rozkładzie wszystkich przyszłych wartości w oparciu o dopasowaną sieć neuronową. Jeśli zrobimy to kilkaset lub tysiące razy, możemy uzyskać dobry obraz rozkładów prognoz. Niestety to podejście jest zasobo- i czasochłonne. W dodatku wymaga założenia o rozkładzie błędów.
Oprócz powyższych metod można również zastosować podejścia empiryczne. Zauważmy, że po pewnym czasie działania sieci neuronowej mamy już nie tylko historię prawdziwych realizacji szeregów czasowych, ale również historię predykcji uzyskiwanych z modelu (w tym przypadku sieci neuronowej). Możemy zatem uzyskać prawdziwe błędy modelu (reszty) i oszacować przedziały predykcji na tej podstawie (np. wyznaczając odchylenie standardowe reszt i budując przedział predykcji wokół prognozy za pomocą reguły 2 czy 3 sigm).
Oczywiście metoda ta ma problem tzw. „zimnego startu”, czyli nie mamy możliwości jej wykorzystania na początku działania systemu. Zauważmy jednak, że możemy w tej sytuacji wykorzystać standardowe podejście związane podziałem zbioru danych na części (Ripley (1996) – Rysunek 1):
Źródło: https://towardsdatascience.com/train-validation-and-test-sets-72cb40cba9e7 (28.04.2021)
Źródło: https://blog.roboflow.com/train-test-split/ (28.04.2021)
Podane procenty są dość orientacyjne i w dużej mierze zależą od całkowitej liczby obserwacji (Rysunek 3).
Źródło: https://www.baeldung.com/cs/train-test-datasets-ratio (28.04.2021)
Zauważmy, że w takiej sytuacji możemy wykorzystać oceny uzyskane na zbiorze testowym. Wystarczy porównać je z prawdziwymi wartościami, które zostały zaobserwowane. Pozwala to wyznaczyć reszty modelu i w dalszym kroku oszacować odchylenie standardowe reszt, a co za tym idzie skonstruować przedział predykcji z wykorzystaniem tak oszacowanego odchylenia standardowego, a to możemy wykorzystać do wyznaczenia błędu prognoz w ujęciu klasycznym omówionych w poprzednim artykule.
Źródła literaturowe:
Niniejszy artykuł powstał dzięki środkom pochodzącym ze współfinansowania przez Unię Europejską Programu Operacyjnego Inteligentny Rozwój 2014-2020, projektu realizowanego w ramach konkursu Narodowego Centrum Badań i Rozwoju: w ramach konkursu „Szybka Ścieżka” dla mikro-, małych i średnich przedsiębiorców – konkurs dla projektów z regionów słabiej rozwiniętych w ramach Działania 1.1: Projekty B+R przedsiębiorstw Poddziałanie 1.1.1 Badania przemysłowe i prace rozwojowe realizowane przez przedsiębiorstwa. Tytuł projektu: „Stworzenie oprogramowania do poprawy trafności prognoz i optymalizacji zapasów z perspektywy odbiorcy i dostawcy współpracujących w ramach łańcucha dostaw przy zastosowaniu rozmytych, głębokich sieci neuronowych.
Black Friday w branży e-commerce wiąże się nie tylko z ogromnym wzrostem popytu, ale również z wyzwaniami w zakresie zarządzania zapasami i prognoz. Sztuczna inteligencja (AI) […]
W dynamicznie zmieniającym się środowisku biznesowym, efektywne zarządzanie procesami zakupowymi jest kluczowe dla utrzymania konkurencyjności przedsiębiorstwa. Sztuczna Inteligencja (AI) pojawia się jako potężne narzędzie umożliwiające Dyrektorom […]
YouTube, stanowiący największą globalną platformę wideo, codziennie transmituje ponad miliard godzin materiałów filmowych. W celu skutecznego zarządzania tak imponującą ilością treści, YouTube aktywnie wykorzystuje możliwości sztucznej […]