W jak wirtualna rzeczywistość – jak sztuczna inteligencja tworzy i zmienia światy cyfrowe?
16 sierpnia 2023Y jako YouTube: jak sztuczna inteligencja pomaga w tworzeniu i rekomendowaniu treści wideo?
25 sierpnia 2023W jak wirtualna rzeczywistość – jak sztuczna inteligencja tworzy i zmienia światy cyfrowe?
16 sierpnia 2023Y jako YouTube: jak sztuczna inteligencja pomaga w tworzeniu i rekomendowaniu treści wideo?
25 sierpnia 2023X jako XAI: co to jest i dlaczego potrzebujemy wyjaśnialnej sztucznej inteligencji?
Sztuczna inteligencja (AI) znajduje coraz szersze zastosowanie w różnych sektorach, od medycyny i edukacji po biznes, bezpieczeństwo i rozrywkę. Mimo to, często pozostaje dla nas niejasne, jak dokładnie AI działa i jakie kryteria przyjmuje podczas podejmowania decyzji. Pytania o wiarygodność AI, możliwość sprawdzenia jej błędów, stronniczości czy zrozumienia jej logiki są tym samym zasadne.
Pojawia się tutaj konieczność wdrożenia tzw. wyjaśnialnej sztucznej inteligencji (XAI) – procesów i technik mających na celu ułatwienie zrozumienia działania AI przez ludzi. XAI, ang. Explainable Artificial Intelligence, to termin oznaczający sztuczną inteligencję zdolną do wyjaśnienia swoich procesów. Choć XAI nie jest nowością – pierwsze próby stworzenia takich systemów eksperckich miały miejsce już w latach 70. XX wieku – stała się niezwykle istotna wraz z rozwojem AI, zwłaszcza w kontekście coraz bardziej skomplikowanych i skutecznych modeli, takich jak sieci neuronowe i uczenie głębokie (deep learning).
Tło tego zjawiska leży w charakterze wielu modeli AI, które funkcjonują jako tzw. czarne skrzynki (black-boxes). Oznacza to, że nie wiemy, co dzieje się w ich wnętrzu i jakie są mechanizmy ich działania. Rozumiemy jedynie dane wejściowe i wynikowe, nie mając wglądu w sposób przetwarzania danych i ważenie czynników decyzyjnych przez model. Nie wiemy również, czy model jest prawidłowy, sprawiedliwy, bezpieczny czy etyczny. To prowadzi do szeregu problemów, takich jak brak zaufania do AI, brak odpowiedzialności za decyzje podejmowane przez AI, brak kontroli nad jej działaniem, niezgodność z prawem i etyką, a także utrudnioną komunikację i współpracę pomiędzy ludźmi a AI.
Właśnie dlatego potrzebujemy XAI – sztucznej inteligencji, która potrafi nam wyjaśnić, co robi i dlaczego, jak to robi i jak dobrze, kiedy działa i kiedy nie, a także dla kogo pracuje. Głównym celem XAI jest zwiększenie przejrzystości i zaufania do AI, umożliwienie ludziom lepszego zrozumienia, oceny, kontroli i współpracy z AI. XAI ma również na celu pomoc w rozwiązywaniu problemów związanych z AI, takich jak błędy, niedoskonałości, uprzedzenia czy nadużycia.
Realizacja XAI opiera się na wielu metodach i narzędziach, które można podzielić na dwie główne kategorie:
1. Metody wewnętrzne (intrinsic), polegające na tworzeniu modeli AI, które od samego początku są zaprojektowane tak, aby były wyjaśnialne i przejrzyste. Przykłady to reguły decyzyjne, drzewa decyzyjne, modele liniowe czy modele probabilistyczne.
2. Metody zewnętrzne (extrinsic), które polegają na dodawaniu warstw lub modułów wyjaśniających do istniejących modeli AI, które są trudne lub niemożliwe do zrozumienia. Przykłady to lokalne modele aproksymacyjne, analiza czynników wpływu, wizualizacja danych czy generowanie tekstu.
Z pomocą aplikacji Dature wykorzystasz sztuczną inteligencję i uczenie maszynowe oparte o sieci neuronowe do prognozowania popytu i optymalizacji zapasów. Dzięki czemu znacznie usprawnisz swój łańcuch dostaw. Połączenie prognozowania popytu z modułem optymalizacji zapasów Dature pozwala określić właściwe poziomy zapasów oraz generuje optymalne rekomendacje zatowarowania. Wypróbuj już teraz!
Niniejszy artykuł powstał dzięki środkom pochodzącym ze współfinansowania przez Unię Europejską Programu Operacyjnego Inteligentny Rozwój 2014-2020, projektu realizowanego w ramach konkursu Narodowego Centrum Badań i Rozwoju: w ramach konkursu „Szybka Ścieżka” dla mikro-, małych i średnich przedsiębiorców – konkurs dla projektów z regionów słabiej rozwiniętych w ramach Działania 1.1: Projekty B+R przedsiębiorstw Poddziałanie 1.1.1 Badania przemysłowe i prace rozwojowe realizowane przez przedsiębiorstwa. Tytuł projektu: „Stworzenie oprogramowania do poprawy trafności prognoz i optymalizacji zapasów z perspektywy odbiorcy i dostawcy współpracujących w ramach łańcucha dostaw przy zastosowaniu rozmytych, głębokich sieci neuronowych.
OSTATNIE WPISY
TAGI
- #AI
- #bullwhip-effect
- #covid19
- #łańcuch-dostaw
- #NCBiR
- #optymalizacja-zapasów
- #out-of-stock
- #outllier
- #overstock
- #prognozowanie
- #prognozowanie-popytu
- #Program-Operacyjny-Inteligentny-Rozwój-2014-2020
- #projekcja-zapasów
- #projekcja-zapasów-w-czasie
- #przy_kawie_o_łańcuchu_dostaw
- #service-level-dostawcy
- #sieci-neuronowe
- #supplychain
- #sztuczna-inteligencja-od-A-do-Z
- #zapas-bezpieczeństwa
- #zapas-sezonowy
- #zapas-zabezpieczający
- #zarządzanie-zapasem
Powiązane wpisy
D jak Dead Stock
PRZECZYTAJ
Dead stock, czyli dosłownie martwy zapas, to produkty, które nie znajdują nabywców w oczekiwanym czasie lub w ogóle nie są sprzedawane. Wpływa to negatywnie na efektywność […]
C jak cash to cash cycle
PRZECZYTAJ
Cykl cash to cash cycle to okres pomiędzy momentem, w którym firma płaci swoim dostawcom za zapasy, a otrzymaniem gotówki od klientów. Koncepcja ta służy do […]
B jak Break-event-point
PRZECZYTAJ
Metoda punktu równowagi (break-even point) jest narzędziem wykorzystywanym do optymalizacji zapasów w łańcuchu dostaw. Jest to punkt, w którym koszty posiadania zapasów równają się korzyściom z […]