profil

Predykcyjne algorytmy AI i ML. Charakterystyka modeli predykcyjnych oraz zastosowanie w medycynie

Ostatnia aktualizacja: 2022-01-04
poleca 85% 263 głosów

Treść
Grafika
Filmy
Komentarze

Ogólna charakterystyka


Modelowanie predykcyjne jest techniką statystyczną wykorzystującą uczenie maszynowe oraz eksploracje danych do przewidywania oraz prognozowania prawdopodobnych przyszłych wyników przy pomocy zarówno danych historycznych jak i istniejących. Funkcjonuje poprzez analizę bieżących jak i historycznych danych jak i prognozowanie tego, czego uczy się na modelu wygenerowanym w celach prognozowania wyników prawdopodobnych. Modelowanie predykcyjne może być wykorzystywane do przewidywania niemal wszystkiego od ryzyka kredytowego po dochody firmy.

Model predykcyjny nie jest ustalony, natomiast jest regularnie weryfikowany bądź aktualizowany w celu uwzględniania różnego rodzaju zmian danych źródłowych. Modele tego typu tworzą założenia oparte bezpośrednio o to co, się wydarzyło w przeszłości oraz to, co dzieje się obecnie. W momencie gdy pojawią się nowe dane, obliczany jest również ponownie wpływ na prawdopodobny przyszły wynik.

Znaczna większość modeli predykcyjnych działa bardzo szybko i zazwyczaj kończy swoje obliczenia w czasie rzeczywistym. Dlatego też banki oraz sprzedawcy mają możliwość obliczania ryzyka wniosku o np. kredyt czy kartę kredytową i niemal od razu przyjąć bądź odrzucić wniosek, opierając się o tą prognozę.
Można spotkać również bardziej złożone modele predykcyjne np. stosowane w biologii obliczeniowej jak i obliczeń kwantowych. W takim przypadku dane są obliczane znacznie dłużej.

Wykorzystanie danych oraz korzyści analizy predykcyjnej zdrowia


Wraz z postępem technologicznym, opieka zdrowotna została w pewien sposób zdigitalizowana, tworząc ogromne zbiory danych. Obejmują one różnego rodzaju systemu zawierające dokumentację medyczną, oświadczenia medyczne, wyniki badań itp. Duża ilość danych jest również generowana przez stale rosnącą liczbę medycznych urządzeń np. monitorujących stan zdrowia czy nawet sprawność fizyczną pacjenta. Dzięki tym informacjom, napędzane są nowe rozwiązania w analizie predykcyjnej do diagnostyki medycznej czy modelowania predykcyjnego zagrożeń dla zdrowia.

Przekształcenie danych w wyniki kliniczne wymaga przede wszystkich stworzenia solidnych podstaw sprzętowych oraz oprogramowania dedykowanego do wydobywania wartości z różnych zestawów danych. Obecnie nawet ponad połowa organizacji medycznych nie posiada kompleksowego planu zarządzania danymi, w związku z czym nie są one w pełni wykorzystywane.

Warto jeszcze zwrócić uwagę na korzyści modelowania predykcyjnego w opiece zdrowotnej. Sama analityka predykcyjna stała się kluczowym elementem strategii analityki medycznej. Obecnie jest to przede wszystkim ważne narzędzia do agregowania, mierzenia oraz zrozumienia danych behawioralnych, biomedycznych oraz psychologicznych, które jeszcze kilka lat temu były niedostępne bądź trudne do zdobycia.

Na poziomie indywidualnym, analiza predykcyjna pozwala dostawcą usług medycznych, zapewnić odpowiednią opiekę zdrowotną, która została indywidualnie dopasowana do danego pacjenta. Dodatkowo w szerszym zakresie pozwala to różnego rodzaju systemom opieki zdrowotnej na identyfikację oraz zrozumienie szerszych trendów co w konsekwencji prowadzi do poprawi strategii ściśle związanej ze zdrowiem całej populacji.

Analiza predykcyjna to nie tylko poprawa jakość opieki, ale również w ogólnym rozrachunku obniża koszty. Za przykład można tutaj uznać modele diagnozowania dla pacjentów, które miały prognozować długość ich pobytu w szpitali czy wskaźników ponownych przyjęć.

Największy potencjał analizy predykcyjnej obejmuje przede wszystkim identyfikację pacjentów z potencjalnym ryzykiem wystąpienia różnych chorób przewlekłych czy opracowywanie najlepszych praktyk, które oparte są o dowody. Pozwala to w konsekwencji uprzedzać zdążenia oraz świadczyć w sposób aktywny opiekę zdrowotną.

Przykłady analizy predykcyjnej w opiece zdrowotnej


Omawiając termin analizy predykcyjnej w opiece zdrowotnej, warto przede wszystkim wskazać przykłady, co pozwoli zrozumieć sam model tego rozwiązania,
• Przyspieszenie leczenia przypadków krytycznych
Firma Penn Medicine, przy współpracy firmy Intel, utworzyła platformę opartą na współpracy w zakresie analizy danych, w celu przewidywania oraz zapobiegania dwóm najczęstszym i kosztownym problemom w szpitalach tj. niewydolnością serca oraz sepsie.
Pozwoliło to na identyfikację około 85 procent pacjentów w przypadku sepsy i to nawet 30 godzin zanim wystąpił u nich wstrząs septyczny. Dodatkowo udało się zidentyfikować od 20 do 30 procent pacjentów charakteryzujących się niewydolnością serca, którzy wcześniej nie zostali w odpowiedni sposób zdiagnozowani.
• Przewidywanie długości pobytu
Zarówno firma Intel jak i Cloudera pomogły w obrębie dużej grupy szpitalnej użyć analizy predykcyjnej w celu poprawienia dokładności przewidywaniu długości pobytu w placówce opieki medycznej, Przetworzono niepowiązane oraz nieustrukturyzowane i częściowo ustrukturyzowane dane. Pozwoliło to lepiej zaplanować pracę personelu szpitala co poskutkowało uzyskaniem 120 milionów dolarów oszczędności rocznie.
• Zmniejszenie liczby ponownych przyjęć
Firma Intel oraz Cloudera wykorzystywały tym razem dane społeczno – ekonomiczne w ramach analizy predykcyjnej w celu pomocy grupie szpitalnej w identyfikacji w momencie stawiania diagnozy pacjentów cechujących się dużym ryzykiem ponownego przyjęcia. Pozwoliło to zapewnić dodatkową opiekę w celu obniżenia wskaźnika ponownych przyjęć. W konsekwencji zmniejszono liczbę przyjęć do placówek o 6000 przypadków, a tym samym zaoszczędzić ok. 72 miliony dolarów rocznie.

Typy modeli predykcyjnych


Modele predykcyjne nie muszą być tworzone od podstaw dla każdej aplikacji. Narzędzia tego typu wykorzystują różnorodne już sprawdzone modele oraz algorytmy, które można zastosować w szerokim zakresie przypadków użycia. Techniki te wraz z postępem czasu zostały udoskonalone, dlatego warto zwrócić uwagę na najlepsze modele analizy predykcyjnej.

• Model klasyfikacji
Model tej uważa się za najprostszy model predykcyjny ze wszystkich. Kategoryzuje on dane w celu uzyskania prostej oraz bezpośredniej odpowiedzi na dane zapytanie.

• Model klastrowania
Model klastrowania zagnieżdża informacje według wspólnie przyjętych atrybutów. Funkcjonuje poprzez grupowanie rzeczy bądź osób o wspólnych cechach bądź zrachowaniach oraz planuje strategię dla każdej z grup na większą skalę. Za przykład można uznać określanie ryzyka kredytowego.

• Model prognostyczny
Model prognostyczny jest niezwykle popularnym modelem, który funkcjonuje na wszystkim co posiada wartość liczbową, opierając się o uczenia na podstawie danych historycznych. Np. definiuje jak duże zamówienie powinna zrobić restauracja w kolejnym tygodniu poprzez odwołanie do danych historycznych.

• Model wartości odstających
Model wartości odstających funkcjonuje poprzez analizę nieprawidłowych bądź odstających punktów danych. Może zostać na przykład zastosowany przez bank jako model wartości odstających do identyfikacji oszustw poprzez pytanie, czy dana transakcja wykracza poza normalne nawyki zakupowe klienta, czy też wydatek w ramach danej kategorii jest normalny czy też nie.

• Model szeregów czasowych
Model szeregów czasowych ocenia sekwencję punktów danych na podstawie czasu. Przykładem jest tutaj liczba pacjentów po udarze, którzy zostali przyjęci do szpitala w ciągu ostatnich miesięcy, co służy do przewidywania ile pacjentów może spodziewać się szpital w następnym tygodniu bądź w ramach innego interwału czasu. W takim przypadku pojedyncza metryka mierzona i porównywana w czasie jest bardziej znacząca niż wyliczenie zwykłej średniej.

Definicja oraz kategorie sieci neuronowych


Sieci neuronowe są niezwykle przydatnym narzędziem do realizacji różnego rodzaju wielu praktycznych zadań, które stosowane są w szerokim zakresie problemów oraz różnych dziedzinach takich jak np. finanse, medycyna, fizyka czy nawet geologia. Faktycznych zastosowań jest znacznie więcej, dlatego też sieci neuronowe można stosować wszędzie gdzie pojawiają się problemy z analizą, klasyfikacją oraz przetwarzaniem danych.

Warto dokładnie określić czym tak naprawdę są sieci neuronowe. Stanowią one podzbiór uczenia maszynowego i są przede wszystkim sercem algorytmów głębokiego uczenia. Sama nazwa ma bezpośrednie powiązanie z mózgiem, z uwagi na naśladowanie sposobu w jaki to neurony biologiczne komunikują się ze sobą.

Sztuczne sieci neuronowe określane również skrótem SSN, złożone są z warstw oraz węzłów, które zawierają warstwę wejściową, jedną bądź więcej warstw ukrytych jak i warstw wyjściową. Każdy z węzłów będący sztucznym neuronem, łączy się z innymi i ma powiązaną wagę oraz próg, W momencie gdy wyjście dowolnego pojedynczego węzła, przekracza określoną wcześniej warstw progową, węzeł ten jest w tym momencie aktywowany poprzez wysyłanie danych do następnej warstwy sieci. W innym przypadku żadne dane nie są przekazywane do następnej z warstw sieci.

Sieci neuronowe polegają przede wszystkim na danych uczących się, by z czasem uczyć się oraz poprawiać ich dokładność. W momencie dopracowania tych algorytmów uczenia się w kierunku dokładności, są potężnymi narzędziami w informatyce oraz sztucznej inteligencji, pozwalając w ten sposób na klasyfikację oraz klastrowanie danych z bardzo dużą prędkością. Zadania powiązane z rozpoznawaniem mowy bądź rozpoznawaniem obrazu mogą potrwać minuty zamiast godzin, porównując to do ręcznej identyfikacji przez ekspertów. Najbardziej znaną obecnie siecią neuronową jest algorytm wyszukiwania Google.

Sieci neuronowe można skategoryzować w ramach różnych typów, które są wykorzystywane do różnych celów. Poniższa lista przedstawia najczęściej spotykane typy sieci neuronowych w standardowych przypadkach użycia.
• Perceptron to najstarsza sieć neuronową, stworzona przez Franka Rosenblatta w 1958 roku. Posiada one pojedynczy neuron i jest określana najprostszą formą sieci neuronowej.

• Sieci neuronowe typu feedforward lub wielowarstwowe perceptrony (MLP). Złożone są z warstwy wejściowej, warstwy ukrytej bądź warstw ukrytych oraz warstwy wyjściowej. Składają się one z neuronów esicy, a nie perceptronów, z uwagi na to, że większość rzeczywistych problemów ma charakter nieliniowy. Dane są zazwyczaj wprowadzane do tych modeli w celu ich szkolenia oraz stanowią one solidną podstawę wizji komputerowej, przetwarzania języka naturalnego oraz innych sieci neuronowych.
• Konwolucyjne sieci neuronowe (CNN) są zazwyczaj wykorzystywane do rozpoznawania obrazów, rozpoznawania wzorców oraz widzenia komputerowego. Sieci te wykorzystują zasady algebry liniowej, a przede wszystkim mnożenia macierzy, do identyfikacji wzorców na obrazie.
• Rekurencyjne sieci neuronowe (RNN) identyfikowane są poprzez ich pętle sprzężenia zwrotnego. Algorytmy tego typu wykorzystuje się podczas korzystania z danych szeregów czasowych w celu przewidywania przyszłych wyników, takich jak między innymi prognozy giełdowe lub prognozy sprzedaży.

Źródła
  1. Kuhn M., Johnson K., Applied Predictive Modeling, Wyd. Springer, 2013r.
  2. Stuart R., Norvig P., Artificial Intelligence: A Modern Approach, ‎Wyd. Financial Times Prentice Hall, 2019r.
  3. Topol E., Deep Medicine: How Artificial Intelligence Can Make Healthcare Human Again, Wyd. Basic Books, 2019r.
  4. Kasperski M., Sztuczna Inteligencja, Wyd. Helion, 2015r.
Czy tekst był przydatny? Tak Nie
Przeczytaj podobne teksty

Czas czytania: 8 minut