profil

Wprowadzenie do zagadnień sztucznej inteligencji

poleca 85% 378 głosów

Treść
Grafika
Filmy
Komentarze

Inteligencja - rozumiana jako sprawność umysłowa ma wiele odcieni znaczeniowych i co za tym idzie ma wiele różnych definicji. Oto niektóre z nich:
Inteligencja to zdolność do aktywnego przetwarzania informacji, przekształcania ich z jednej formy w inną poprzez operacje logiczne - w tym sensie inteligentne są komputery, a nawet zwykłe kalkulatory.
Inteligencja to zdolność do aktywnego przetwarzania informacji w celu lepszego przystosowywania się do zmiennego środowiska. Tak rozumianej inteligencji nie posiadają komputery (bo nie przetwarzają informacji na własne potrzeby) ale posiadają ją zwierzęta, np. owady. Taką inteligencją wykazywałaby się maszyna, która np. w lesie albo na ulicy potrafiłaby samodzielnie przetrwać i zdobywać źródła energii.
Inteligencja jest ?przepisem? na rozwiązywanie problemów sztucznej inteligencji, musimy opisać problem, musimy znać algorytm do rozwiązania problemu. Stwarzamy szczegółowy algorytm postępowania i musimy przełożyć go na zrozumiały język dla użytkownika. W algorytmie należy podać wszystkie wymagane dane.

Sztuczna inteligencja (ang. Artificial Intelligence ? AI) ma dwa podstawowe znaczenia:
? jest to hipotetyczna inteligencja realizowana w procesie inżynieryjnym a nie naturalnym
? jest to nazwa technologii i dziedzina badań naukowych informatyki na styku z neurologią, psychologią i ostatnio kognitywistyką oraz także systemiką, a nawet ze współczesną filozofią.
Głównym zadaniem badań nad sztuczną inteligencją w drugim znaczeniu jest konstruowanie maszyn i programów komputerowych zdolnych do realizacji wybranych funkcji umysłu i ludzkich zmysłów niepoddających się prostej numerycznej algorytmizacji. Problemy takie bywają nazywane AI-trudnymi i zalicza się do nich między innymi:
? podejmowanie decyzji w warunkach braku wszystkich danych,
? analiza i synteza języków naturalnych?
? rozumowanie logiczne/racjonalne,
? dowodzenie twierdzeń,
? gry logiczne, jak np. szachy,
? zarządzanie wiedzą, preferencjami i informacją w robotyce,
? systemy eksperckie i diagnostyczne.


Historia.
Sztuczna Inteligencja jako dział badań naukowych zaczęła się w latach 50. XX wieku kiedy to powstało pierwsze laboratorium AI na Uniwersytecie Carnegie Mellon, założone przez Allena Newella i Herberta Simona i kilka lat później analogiczne laboratorium w Massachusetts Institute of Technology, założone przez Johna McCarthy'ego. Oba te laboratoria są wciąż wiodącymi ośrodkami AI na świecie.
Termin sztuczna inteligencja został po raz pierwszy zaproponowany prawdopodobnie przez Johna McCarthy'ego, który w 1955 r. zdefiniował go w następujący sposób: "konstruowanie maszyn, o których działaniu dałoby się powiedzieć, że są podobne do ludzkich przejawów inteligencji".

Istnieją dwa podstawowe podejścia do pracy nad AI:
Pierwsze to tworzenie modeli matematyczno-logicznych analizowanych problemów i implementowanie ich w formie programów komputerowych, mających realizować konkretne funkcje uważane powszechnie za składowe inteligencji. W tej grupie, tzw. podejścia symbolicznego, są np. algorytmy genetyczne, metody logiki rozmytej i wnioskowania bazującego na doświadczeniu.
Drugie to podejście subsymboliczne polegające na tworzeniu struktur i programów "samouczących się", bazujących na modelach sieci neuronowej i sieci asocjacyjnych, oraz opracowywanie procedur "uczenia" takich programów, rozwiązywania postawionych im zadań i szukania odpowiedzi na wybrane klasy "pytań".
W trakcie wieloletniej pracy laboratoriów i zespołów AI stosujących oba podejścia do problemu, okazało się, że postęp w tej dziedzinie jest i będzie bardzo trudny i powolny. Często mimo niepowodzeń w osiąganiu zaplanowanych celów, laboratoria te wypracowywały nowe techniki informatyczne, które okazywały się użyteczne do zupełnie innych celów. Przykładami takich technik są np. języki programowania LISP i Prolog. Laboratoria AI stały się też "rozsadnikiem" kultury hackerskiej.

Najnowsze podejście do problemów AI to rozwijanie różnych form inteligencji rozproszonej (wzorowanej na organizacjach ludzkich), np. personoidy oraz tzw. agentów autonomicznych i "inteligentnych". Dziedzina ta nosi nazwę Technologii Agentów Inteligentnych.

Prace w dziedzinie AI przyniosły wiele konkretnych rezultatów które znalazły już praktyczne i powszechne zastosowania od domowej pralki do programów kosmicznych.

Jedno z najbardziej ?praktycznych? zastosowań sztucznej inteligencji:
? Automatyzacja generowania ekspertyz z różnych dziedzin przez zastąpienie człowieka ? eksperta lub jako pomoc dla niego.
? System ekspertowy składa się z: Bazy wiedzy i Maszyny wnioskującej.
? Zawierają wiedzę rzeczywistych ekspertów na dany temat oraz sposoby rozwiązywania przez nich problemów zapisane w postaci bazy wiedzy.
? Wiedza ekspertów jest transferowana do sytemu na podstawie ankiet i rozmów przeprowadzanych ze specjalistą, zaś z danej branży przez inżyniera wiedzy.
? Na postawie faktów i reguł zapamiętanych w bazie wiedzy maszyna wnioskująca generuje ekspertyzę.
? Zastosowania w medycynie, ekonomii, edukacji, projektowaniu, nauce.


Poddziedziny sztucznej inteligencji:
? systemy ekspertowe;
? sieci neuronowe;
? algorytmy genetyczne;
? robotyka;
? przetwarzanie języka naturalnego;
? programy automatyki;
? rozpoznawanie mowy, percepcji, wizja komputerowa;
? rozwiązanie problemów metodami sterowania i przeszukiwania;
? oprogramowanie i języki oprogramowania.

Współczesne praktyczne zastosowania sztucznej inteligencji:
Technologie oparte na logice rozmytej ? powszechnie stosowane do np. sterowania przebiegiem procesów technologicznych w fabrykach w warunkach "braku wszystkich danych". Logika rozmyta, jedna z logik wielowartościowych, stanowi uogólnienie klasycznej dwuwartościowej logiki. Jest ściśle powiązana z teorią zbiorów rozmytych i teorią prawdopodobieństwa. Została zaproponowana przez Lotfi Zadeha w 1965 roku. W logice rozmytej między stanem 0 (fałsz) a stanem 1 (prawda) rozciąga się szereg wartości pośrednich, które określają stopień przynależności elementu do zbioru. Logika rozmyta okazała się bardzo przydatna w zastosowaniach inżynierskich, czyli tam, gdzie klasyczna logika klasyfikująca jedynie według kryterium prawda/fałsz nie potrafi skutecznie poradzić sobie z wieloma niejednoznacznościami i sprzecznościami. Znajduje wiele zastosowań, między innymi w elektronicznych systemach sterowania (maszynami, pojazdami i automatami), zadaniach eksploracji danych czy też w budowie systemów ekspertowych. Metody logiki rozmytej wraz z algorytmami ewolucyjnymi i sieciami neuronowymi stanowią nowoczesne narzędzia do budowy inteligentnych (nie mylić ze świadomymi) systemów mających zdolności uogólniania wiedzy.
Systemy ekspertowe ? czyli rozbudowane bazy danych z wszczepioną "sztuczną inteligencją" umożliwiającą zadawanie im pytań w języku naturalnym i uzyskiwanie w tym samym języku odpowiedzi. Jest to taki system wykonujący skomplikowane zadania w określonej dziedzinie o dużych wymaganiach intelektualnych, który robi to tak dobrze jak człowiek będący ekspertem w tej dziedzinie. Systemy takie stosowane są już w farmacji i medycynie.
Maszynowe tłumaczenie tekstów ? systemy takie jak SYSTRANS, jakkolwiek wciąż bardzo ułomne, robią szybkie postępy i zaczynają się nadawać do tłumaczenia tekstów technicznych.
Sieci neuronowe ? stosowane z powodzeniem w wielu zastosowaniach łącznie z programowaniem "inteligentnych przeciwników" w grach komputerowych. Współcześnie nie ma wątpliwości, że sztuczne sieci neuronowe nie stanowią dobrego modelu mózgu, choć różne ich postaci wykazują cechy charakterystyczne dla biologicznych układów neuronowych: zdolność do uogólniania wiedzy, uaktualniania kosztem wcześniej poznanych wzorców, dawanie mylnych odpowiedzi po przepełnieniu. Mimo uproszczonej budowy, sztuczne sieci neuronowe stosuje się czasem do modelowania schorzeń mózgu. Sztuczne sieci neuronowe znajdują zastosowanie w rozpoznawaniu i klasyfikacji wzorców (przydzielaniu wzorcom kategorii), predykcji szeregów czasowych, analizie danych statystycznych, odszumianiu i kompresji obrazu i dźwięku oraz w zagadnieniach sterowania i automatyzacji.
Uczenie się maszyn - dział sztucznej inteligencji zajmujący się algorytmami potrafiącymi uczyć się podejmować decyzje bądź nabywać wiedzę. Uczenie maszynowe albo uczenie się maszyn jest dziedziną sztucznej inteligencji której przedmiotem zainteresowania są metody umożliwiające uczenie się programom komputerowym. Program uczy się, jeśli potrafi modyfikować jakiś aspekt samego siebie (swój stan) i dzięki temu działać coraz lepiej lub wydajniej. Uczenie maszynowe znajduje zastosowanie w rozwiązywaniu problemów, dla których ze względu na ich złożoność niemożliwe jest podanie gotowego algorytmu rozwiązującego dany problem w racjonalnym czasie. Inne dziedziny zastosowań to poszukiwanie zależności w dużych zbiorach danych (tzw. eksploracja danych), oraz tworzenie inteligentnych autonomicznych systemów, umiejących przystosować się do zmian w środowisku
Eksploracja danych - omawia obszary, powiązanie z potrzebami informacyjnymi, pozyskiwaniem wiedzy, stosowane techniki analizy, oczekiwane rezultaty.
Rozpoznawanie optyczne ? stosowane są już programy rozpoznające osoby na podstawie zdjęcia twarzy lub rozpoznające automatycznie zadane obiekty na zdjęciach satelitarnych.
Rozpoznawanie mowy i rozpoznawanie mówców ? stosowane już powszechnie na skalę komercyjną.
Rozpoznawanie ręcznego pisma ? stosowane już masowo np. do automatycznego sortowania listów, oraz w elektronicznych notatnikach.
Sztuczna twórczość ? istnieją programy automatycznie generujące krótkie formy poetyckie, komponujące, aranżujące i interpretujące utwory muzyczne, które są w stanie skutecznie "zmylić" nawet profesjonalnych artystów, w sensie, że nie rozpoznają oni tych utworów jako sztucznie wygenerowanych.
W ekonomii, powszechnie stosuje się systemy automatycznie oceniające m.in. zdolność kredytową, profil najlepszych klientów, czy planujące kampanie reklamowe. Systemy te poddawane są wcześniej automatycznemu uczeniu na podstawie posiadanych danych (np. klientów banku, którzy regularnie spłacali kredyt i klientów, którzy mieli z tym problemy).

Test Turinga
Jest to sposób określania zdolności maszyny do posługiwania się językiem naturalnym i pośrednio mającym dowodzić opanowania przez nią umiejętności myślenia w sposób podobny do ludzkiego. Test ten został zaproponowany w 1950 roku przez Alana Turinga. Turing zaproponował ten test w celu zamiany pełnego emocji i w jego pojęciu bezsensownego pytania "Czy maszyny myślą?" na pytanie lepiej zdefiniowane, w ramach badań nad stworzeniem sztucznej inteligencji.
Test wygląda następująco: sędzia - człowiek - prowadzi rozmowę w języku naturalnym z pozostałymi stronami. Jeśli sędzia nie jest w stanie wiarygodnie określić, czy któraś ze stron jest maszyną czy człowiekiem, wtedy mówi się, że maszyna przeszła test. Zakłada się, że zarówno człowiek jak i maszyna próbują przejść test zachowując się w sposób możliwie zbliżonych do ludzkiego.
Test pochodzi od zabaw polegających na zgadywaniu płci osoby znajdującej się w innym pokoju przy pomocy serii pytań i odpowiedzi pisanych na kartkach papieru. W pierwotnym pomyśle Turinga człowiek musiał udawać przeciwną płeć, a test był ograniczony do pięciominutowej rozmowy. Dziś nie uważa się tych cech za podstawowe i zasadniczo nie umieszcza w specyfikacji testu Turinga.
Turing oczekiwał, że maszyny w końcu będą w stanie przejść ten test. Ocenił, że około roku 2000 maszyny z pamięcią o pojemności 109 bitów (około 119 MB) będą w stanie oszukać 30% sędziów w czasie pięciominutowego testu. Przewidywał również, że ludzie przestaną uważać zdanie "myśląca maszyna" za wewnętrznie sprzeczne. Oceniał, że uczenie maszynowe nabierze dużego znaczenia w budowaniu wydajnych maszyn. To twierdzenie jest przez dzisiejszych badaczy sztucznej inteligencji oceniane jako zasadne.

Spory o to, czy test Turinga we właściwy sposób definiuje inteligencję maszynową (lub "myślenie maszynowe") dotyczyły głównie trzech punktów:
1.Maszyna, która przejdzie test Turinga może być w stanie symulować ludzkie zachowanie konwersacyjne, lecz może to być znacznie mniej niż prawdziwa inteligencja. Maszyna może zwyczajnie używać sprytnie wymyślonych reguł. Częstą ripostą w społeczności zajmującej się badaniami nad sztuczną inteligencją jest zadanie pytania "A skąd wiemy czy ludzie sami po prostu nie posługują się jakimiś sprytnie wymyślonymi regułami?".
2. Maszyna może być inteligentna nie posiadając ludzkiej umiejętności prowadzenia rozmowy.
3. Wielu ludzi mogłoby nie być w stanie zaliczyć takiego testu. Z drugiej strony, inteligencję innych ludzi oceniamy zazwyczaj wyłącznie na podstawie tego co i jak mówią.
Można wskazać jeszcze jedną wątpliwość odnośnie testu Turinga: W niektórych przypadkach aby zaliczyć test maszyna musiałaby symulować brak posiadanej wiedzy czy umiejętności. "Zdradzenie" się z taką wiedzą czy umiejętnościami powodowałoby że nie zaliczy testu.
Jak dotąd, żaden komputer nie zaliczył testu Turinga. Proste programy konwersacyjne takie jak ELIZA były w stanie sprawić, że ludzie wierzyli, że rozmawiają z żywym człowiekiem. Przykładem może być nieformalny eksperyment pod nazwą AOLiza. Jednak takie "sukcesy" nie są tym samym co przejście testu Turinga. Po pierwsze, człowiek w takiej rozmowie nie ma podstaw do podejrzeń, że rozmawia z czymkolwiek innym niż drugi człowiek. W prawdziwym teście Turinga przesłuchujący stara się aktywnie określić naturę rozmówcy. Udokumentowane przypadki dotyczą głównie środowisk typu IRC, gdzie rozmowy są wysoce nienaturalne i często spotyka się bezsensowne komentarze, odkrywające brak zrozumienia tematu. Dodatkowo, wielu uczestników czatów posługuje się angielskim jako drugim lub trzecim językiem, co tylko zwiększa prawdopodobieństwo, że ocenią oni głupi komentarz programu konwersacyjnego jako coś, czego po prostu nie zrozumieli. Nie znają oni również w większości technologii botów i nie rozpoznają typowo nieludzkich błędów popełnianych przez takie programy.

Maszyna jak człowiek = ROBOT.
Słowa robot używamy na określenie mechanicznego urządzenia wykonującego automatycznie pewne zadania. Działanie robota może być kontrolowane przez człowieka, przez wprowadzony wcześniej program, bądź przez zbiór ogólnych reguł, które zostają przełożone na działanie robota przy pomocy technik sztucznej inteligencji. Roboty często zastępują człowieka przy monotonnych, złożonych z powtarzających się kroków czynnościach, które mogą wykonywać znacznie szybciej od ludzi. Domeną ich zastosowań są też te zadania, które są niebezpieczne dla człowieka, na przykład związane z manipulacją szkodliwymi dla zdrowia substancjami lub przebywaniem w nieprzyjaznym środowisku.
Pojęcia robot używamy też do nazywania autonomicznie działających urządzeń odbierających informacje z otoczenia przy pomocy sensorów i wpływających na nie przy pomocy efektorów. Roboty takie budowane są przez badaczy zajmujących się sztuczną inteligencją lub kognitywistyką w celu modelowania zdolności poznawczych, sposobu myślenia lub zachowania zwierząt bądź ludzi. Mimo ogromnego postępu w tych dziedzinach cel, którym jest stworzenie robota co najmniej dorównującego inteligencją człowiekowi, wciąż wydaje się bardzo odległy. Dziedziną sztucznej inteligencji zajmującą się projektowaniem i konstruowaniem robotów jest robotyka.
Robot jest też ogólnym pojęciem stosowanym do określenia istniejących w rzeczywistości, bądź wyimaginowanych automatów i maszyn przypominających wyglądem człowieka lub zwierzę. Słowa robot prędzej użyjemy do nazwania człekokształtnej ruchomej kukły, niż wysoko wyspecjalizowanej nowoczesnej zmywarki do naczyń - mimo że sposób działania tego urządzenia w pełni zgadza się z definicją robota. Przyczyną tego jest prawdopodobnie cechujący nas antropomorfizm.

Krótka Historia Robotów

Słowo robot pochodzi od czeskiego słowa robota, oznaczającego ciężką pracę, wysiłek. Upowszechiło się ono po przetłumaczeniu w 1923 roku na język angielski sztuki R.U.R. (Rosumovi Uml Roboti) której autorem jest Karel apek. Mimo iż pierwotnie odnosiło się ono do żywych istot - sztucznie produkowanej, uproszczonej wersji człowieka przeznaczonej do ciężkiej pracy, obecnie słowo to oznacza przede wszystkim urządzenia mechaniczne.

Termin robotyka wprowadził Isaac Asimov w swoim opowiadaniu Runaround (1942). On też jest autorem trzech praw robotyki:
1.Robot nie może zranić i skrzywdzić człowieka ani przez zaniechanie działania dopuścić, aby człowiek poniósł szkodę.
2.Robot musi słuchać danego mu rozkazu, chyba że koliduje on z Pierwszym Prawem.
3.Robot musi chronić sam siebie, dopóki nie koliduje to z Pierwszym lub Drugim Prawem.

Najstarszym zachowanym projektem humanoidalnego robota jest datowany na rok 1495, wykonany przez Leonarda da Vinci zbiór rysunków mechanicznego rycerza, który mógł siadać, poruszać rękami oraz głową i szczęką. Nie wiemy niestety czy Leonardo podjął się próby jego zbudowania.

Na pierwszego działającego robota ludzkość musiała poczekać do roku 1738. Był nim grający na flecie android którego konstruktorem był Jacques de Vaucanson. Zbudował on też mechaniczną kaczkę, potrafiącą jeść i wydalać

Chiński pokój

Argument chińskiego pokoju ? eksperyment myślowy zaproponowany przez amerykańskiego filozofa i językoznawcę Johna Searle'a i przedstawiony w jego pracy z 1980 roku pt. ?Minds, Brains, and Programs?, mający pokazać, że nawet efektywne symulacje komputerowe nie urzeczywistniają prawdziwego rozumu, odkąd wykonywanie różnorodnych zadań (np. obliczeniowych) nie musi opierać się na rozumieniu ich przez wykonawcę. Służy on przeciwnikom teorii tzw. mocnej sztucznej inteligencji jako kontrargument. U podstaw eksperymentu stoi niezgodność między syntaksą a semantyką.

Od opublikowania pracy Searle'a argument chińskiego pokoju był głównym punktem debaty nad możliwością mocnej sztucznej inteligencji. Zwolennicy teorii mocnej sztucznej inteligencji wierzą, że właściwie zaprogramowany komputer nie jest prostą symulacją lub modelem umysłu, lecz liczy w sposób właściwy umysłowi, tzn. rozumie, ma stany kognitywne i może myśleć. Argument Searle'a (precyzyjniej ? eksperyment myślowy) zamierzony w celu podminowania tego stanowiska idzie w sposób następujący:

Załóżmy, że wiele lat temu skonstruowaliśmy komputer, który zachowuje się jakby rozumiał język chiński. Innymi słowy, komputer bierze chińskie znaki jako podstawę wejściową i śledzi zbiór reguł nimi rządzący (jak wszystkie komputery), koreluje je z innymi chińskimi znakami, które prezentuje jako informację wyjściową.

Załóżmy, że ten komputer wykonuje to zadanie w sposób tak przekonujący, że łatwo przechodzi test Turinga, tzn. przekonuje Chińczyka, że jest Chińczykiem. Na wszystkie pytania, które człowiek zadaje, udziela właściwych odpowiedzi w sposób tak naturalny, że Chińczyk jest przekonany, iż rozmawia z innym Chińczykiem. Zwolennicy mocnej sztucznej inteligencji wyciągają stąd wniosek, że komputer rozumie chiński, tak jak człowiek.

Teraz Searle proponuje, żeby założyć, iż to on sam siedzi wewnątrz komputera. Innymi słowy, on sam znajduje się w małym pokoju, w którym dostaje chińskie znaki, konsultuje książkę reguł, a następnie zwraca inne chińskie znaki, ułożone zgodnie z tymi regułami. Searle zauważa, że oczywiście nie rozumie ani słowa po chińsku, mimo iż wykonuje powierzone mu zadanie. Następnie argumentuje, że jego brak rozumienia dowodzi, że i komputery nie rozumieją chińskiego, znajdując się w takiej samej sytuacji jak on: są bezumysłowymi manipulatorami symboli i nie rozumieją, co 'mówią', tak jak i on nie rozumie treści chińskich znaków, którymi operował.

Inne przykłady zastosowania sztucznej inteligencji

Sztuczna inteligencja umożliwia osiągnięcie najlepszego wyniku w nieprzewidywalnym otoczeniu? ? na przykład w:
? Programie zdalnego agenta NASA
? Samochodzie ?Alvinn? w Carnegie Mellon University
? Komputerze ?Deep Blue? IBM
Deep Blue dąży do osiągnięcia najlepszego możliwego wyniku w grze w szachy przeciwko nieprzewidywalnym ruchom przeciwnika. Zdalny agent NASA symuluje inteligentne zachowanie, aby osiągnąć najlepszy rezultat w nieprzewidywalnej przestrzeni kosmicznej. Samochód ?Alvinn? to kolejny przykład zastosowania sztucznej inteligencji, aby zapewnić bezpieczną jazdę w nieprzewidywalnym ruchu ulicznym.

NASA
Doskonałym przykładem sztucznej inteligencji jest ?Zdalny Agent? ? program, który kontroluje pojazd kosmiczny znajdujący się około 100 milionów kilometrów od Ziemi. Komunikowanie się z oddalonymi w kosmosie obiektami zajmuje wiele czasu. Przesłanie instrukcji trwa kilka minut, a z czasem, gdy obiekt się oddali, nawet kilka godzin. Z tego powodu sterowanie pojazdami w kosmosie jest czasochłonne i niewygodne. Zdalny Agent NASA to pojazd kosmiczny, który potrafi poruszać się bez otrzymywania poleceń z Ziemi. Pojazd kosmiczny może osiągnąć wiele celów samodzielnie, do tego z lepszymi wynikami, w wysoce nieprzewidywalnym otoczeniu. Pozwala to NASA na zmniejszenie wydatków związanych z kontrolowaniem pojazdu.

DEEP BLUE

Gra w szachy to prawdopodobnie najlepiej znany przykład zastosowania sztucznej inteligencji dzięki ?Deep Blue?, komputerowi, który w 1997 roku pokonał mistrza świata Garri Kasparova. Stworzony przez IBM system komputerowy analizuje 200 milionów możliwych kombinacji posunięć zanim zdecyduje się na wykonanie ruchu. Komentując swoją porażkę, Garri Kasparov stwierdził, że czuł ?nowy rodzaj inteligencji po drugiej stronie szachownicy?.
Stanowiący trzon systemu Deep Blue komputer znalazł zastosowanie przy modelowaniu danych finansowych, przewidywaniu pogody i rozwijaniu nowych terapii lekowych.


ALLWIN

Kiedy roboty potrafią wchodzić w interakcję z otoczeniem, ich użyteczność znacząco rośnie. Zadanie to ułatwiają systemy sztucznej inteligencji.
Jednym z przykładów jest system komputerowej wizji ?Alvinn? (stworzony na Carnegie Mellon University). Został on umieszczony w sterowanym komputerowo mikrobusie. Otrzymuje on obrazy drogi z wielu kamer wideo, wybierając najlepszy sposób kierowania samochodem na podstawie dostarczanych obrazów drogi i dotychczasowych doświadczeń.
Alvinn kierował samochodem z Washington DC do San Diego (ok. 4500 km) prowadząc przez ponad 98% drogi. Przez pozostałe 2% - przede wszystkim wjazdy i zjazdy na autostrady - kierował człowiek. Jednak przecież ludzie najczęściej popełniają błędy też w takich sytuacjach!
Stworzenie Alvina może być początkiem tworzenia systemów zwiększających bezpieczeństwo na drodze, poprzez ostrzeganie lub wspieranie kierowcy w awaryjnych sytuacjach.

Czy tekst był przydatny? Tak Nie

Czas czytania: 18 minut

Typ pracy