profil

Przesyłanie Danych nodległość

poleca 86% 103 głosów

Treść
Grafika
Filmy
Komentarze

HISTORIA
Telegraf Wheatstone’a
Telegraf Morse’a
Telefon
Telefon bezprzewodowy
PRZEWODOWE PRZESYŁANIE DANYCH
SIEĆ TELEFONICZNA
Modem
Ciekawostka
Isdn
SIEĆ KOMPUTEROWA
Sieć LAN
Sieć MAN
Sieć WAN
Podział sieci ze względu na obszar i topologię
Internet
Poczta elektroniczna
News
Irc
Ftp
www
Telnet
KABLE
Rodzaje kabli miedzianych
Światłowody
BEZPRZEWODOWE PRZESYŁANIE DANYCH
TELEWIZJA SATELITARNA
TELEWIZJA
RADIOFONIA
CB-RADIO
GSM
Zasada działania systemu GSM
Kodowanie przekazywanej informacji w systemie GSM
Interfejs radiowy
GPRS i HSCSD
Zastosowanie HSCSD
Zastosowanie GPRS
WAP
GPS
WLAN



HISTORIA

Telegraf, czyli pierwsze elektryczne urządzenie do przesyłania informacji na odległość, wykorzystywał technikę cyfrową. Wynaleziony później telefon przesyłał dźwięki w postaci sygnałów analogowych.
Do stworzenia prostego, elektrycznego systemu sygnałowego potrzeba zaledwie paru elementów. Aby przesłać sygnał po kablu należy dysponować baterią oraz wyłącznikiem. Do odebrania sygnału wystarczą elektromagnes i igła magnetyczna. Prąd elektryczny, przepływając przez elektromagnes, indukuje pole magnetyczne, które odpycha igłę kompasu. Problem może stanowić jednak opracowanie całego systemu, dzięki któremu informacje mogłyby być łatwo kodowane przez nadawcę, przesyłane i szybko interpretowane przez odbiorcę.

Telegraf Wheatstone’a
Pierwszy telegraficzny system przesyłania informacji stworzyli w 1837 roku dwaj Anglicy, Charles Wheatstone i William Cooke. Odbiornik telegraficzny ich pomysłu składał się z pięciu igieł magnetycznych, umieszczonych na planszy z wypisanymi literami alfabetu. Nadawany sygnał dwie z igieł, które wskazywały na jedną z liter. Dwa lata później Wheatstone opracował system dwuigłowy, w którym numer odchylanej igły oraz kierunek wychylenia jednoznacznie wskazywał nadawaną literę. Do nadawania i interpretacji sygnałów potrzeba było wykwalifikowanych i zręcznych operatorów, lecz ten system był wprowadzony do użytku, jako że wymagał niewielkiej ilości drutu. W 1840 roku wynalazca zbudował tak zwany telegraf „ABC”, w którym elektromagnes uruchamiał mechanizm zegarowy obracający tarczą z literami. Operator czekał, aż w okienku pojawi się żądana litera i wtedy nadawał sygnał, który był odbierany, gdy na urządzeni pojawiała się ta sama litera.

Telegraf Morse’a
W czasie, gdy Wheatstone i Cooke budowali telegraf w Anglii, w Stanach Zjednoczonych eksperymentował z podobnym urządzeniem malarz Samuel Morse. Jego pomysł polegał na tym, by każdą literę zaszyfrować w postaci kombinacji krótkich i długich sygnałów. Sygnały przesyłane po drucie, naciskając w odpowiedni sposób przełącznik, zwany kluczem. Odbiornik rejestrował sygnały na papierowej taśmie pod postacią kresek i kropek, które następnie należało odczytać. Szyfr ten zyskał sobie wkrótce nazwę alfabetu Morse’a.
Z początku operatorów szkolono w odczytywaniu szyfru taśm papierowych, lecz w praktyce operatorzy byli w stanie łatwo odczytać treść przekazu, wsłuchując się w trzaski wydawane przez odbiornik przy zapisywaniu taśmy. Zmieniono, więc formę odbiornika, wprowadzając proste urządzenie zwane stukawaką, które wydawało wyraźnie różne dźwięki, gdy żelazna sztabka była przyciągana i puszczana przez elektromagnes. W ten sposób ułatwiono identyfikację początku i końca każdego sygnału, co czyniło rozszyfrowanie wiadomości jeszcze prostszym.
Gdy telegraf rozpowszechnił się, problemem stały się opóźnienia, wynikające z konieczności oczekiwania, aż zwolni się linia. Mimo wzrastającej szybko ilości linii telegraficznych, należało znaleźć sposób na szybkie, efektywne przesyłanie informacji. Rozwiązanie znalazł znany już nam Anglik Charles Wheatstone.
Jego pomysł był bardzo prosty. Operator kodował wiadomość w alfabecie Morse’a na maszynie, która perforowała w odpowiedni sposób taśmę papierową. Następnie taśm była przepuszczana z dużą prędkością przez specjalny nadajnik, który przypisywał otworom w taśmie sygnały elektryczne. Po drugiej stronie linii inny aparat odczytywał nadawane sygnały i zapisywał je w postaci kropek i kresek na papierowej taśmie. Zautomatyzowanie nadawanie i odbioru sygnałów pozwoliło na przesyłanie paruset słów w ciągu minuty, podczas gdy sprawny i dobrze wyszkolony operator był w stanie nadać w tym czasie do 30 słów. Efekt był taki, że w tym samym czasie można było nadać tym samym kablem znacznie więcej wiadomości.
Z początku operatorzy musieli znać alfabet Morse’a, lecz już wkrótce wiadomości były kodowane automatycznie. Wystukiwano wiadomość na klawiaturze przypominającej maszynę do pisania, która sama zmieniała ją na układ kropek i kresek. Z drugiej strony maszyna odbiorcza także dokonywała konwersji z alfabetu Morse’a na normalne litery i wypisywała wiadomość na papierowej taśmie w postaci ciągu liter. Teraz należało tylko odpowiednio ją pociąć na pojedyncze wyrazy, nakleić na formularz i dostarczyć do adresata. Z tego typu aparatów wyewoluowały dalekopisy, te jednak, zamiast alfabetu Morse’a, używają specjalnego, zoptymalizowanego systemu kodowania.

Telefon
W 1876 roku Aleksander Grahama Bell jako pierwszy opatentował urządzenie, za pomocą, którego można przesyłać na odległość mowę. W mikrofonie jego telefonu fale dźwiękowe padały na giętką membranę, do której przymocowano magnes stały. Membrana z magnesem wibrowały, co dzięki zjawisku indukcji elektromagnetycznej, powodowało wytworzenie w znajdującej się tuż obok cewce zmiennego prądu, którego natężenie odpowiadało zmianom ciśnienia fali akustycznej. Ten prąd przesyłano kablem do odbiornika, czyli słuchawki, gdzie przechodził przez uzwojenie elektromagnesu. Zmiany prądu powodowały zmienne pole magnetyczne, w którym wibrowała ferromagnetyczna membrana, odtwarzając oryginalny dźwięk. Bellowski nadajnik wytwarzał jedynie słaby sygnał i nie było wówczas metody jego wzmocnienia. Znacznie lepszy efekt uzyskał amerykański wynalazca, Thomas Alva Edison. W 1878 roku ulepszył urządzenie Bella, wprowadzając mikrofon węglowy, w którym drgania membrany pobudzonej falą akustyczną powodowały zmianę ciśnienia działającego na pojemnik wypełniony granulatem węglowym. Zmiany ciśnienia były przyczyną zmian oporu elektrycznego pojemnika, który był włączony w obwód zasilany z baterii. Dzięki temu natężenie prądu płynącego w obwodzie było modulowane zgodnie ze zmianami ciśnienia powietrza, wytwarzanymi przez falę akustyczną. Odbiornik-słuchawka był prawie identyczny jak ten w oryginalnym rozwiązaniu Bella.
Aż do niedawna większość aparatów telefonicznych była wyposażona w mikrofony węglowe. Od niedawna większość telefonów ma mikrofony pojemnościowe, których mikrofon zawiera pewien stały ładunek elektryczny. Pozwalają one uzyskać znacznie lepszy stosunek sygnału do szumu, a przez to lepszą jakość odtwarzanego dźwięku.

Telefon bezprzewodowy
Niemiecki wynalazca Heinrich Rudolf Hertz, odkrył fale, które po emisji mogły by wychwycone przez ustawiony w pewnej odległości odbiornik. Kilka lat później, Guglielmo Marconi przesłał te fale na odległość kilkunastu kilometrów i nazwał je radiem. Szybko zaczęły pojawiać się pierwsze propozycje wykorzystania właściwości odkrytych fal radiowych. Jedną z rozważanych możliwości, już w roku 1891, było uruchomienie telefonii bezprzewodowej (ATS1). Pierwsze opracowane aplikacje używane były do celów komunikacji morskiej. Na początku wszystkie tego typu nowości były przyjmowane bardzo niechętnie, jednak po katastrofie Titanica zainteresowanie komunikacją zarówno między statkami na morzu, jak między statkiem i portem wzrosło bardzo gwałtownie. Wkrótce doceniono również możliwość komunikacji między pojazdami poruszającymi się po lądzie. Pierwsze eksperymenty
w tej dziedzinie przeprowadzono w roku 1921 w departamencie policji w Detroit. Polegały one na rozsyłaniu komunikatów radiowych, które odbierane były przez urządzenia znajdujące się w samochodach policji. Była to komunikacja jednokierunkowa, przypominająca trochę dzisiejsze systemy przywoławcze. Pierwszy, sprawnie działający, jednokierunkowy, ruchomy system radiowy oficjalnie uruchomiono 7 kwietnia 1928 roku. Dwa lata później wprowadzono system umożliwiający komunikację w dwóch kierunkach. Od tego czasu następuje gwałtowny rozwój podobnych systemów w wielu miastach Stanów Zjednoczonych. W roku 1934 istniały już 134 policyjne systemy radiowe. Kolejny ważny krok w pracach nad rozwojem komunikacji radiowej uczyniony został w roku 1935, kiedy to Edwin H. Armstrong zastosował do transmisji fal radiowych modulację częstotliwości (FM - ang. frequency modulation). W porównaniu ze stosowaną wcześniej modulacją amplitudy (AM - ang. amplitude modulation), FM wymagała znacznie mniej mocy,
a także była bardziej odporna na pojawiające się poprzednio problemy związane
z propagacją. Te i inne zalety przyczyniły się do tego, że bardzo szybko większość istniejących systemów zmieniono na systemy FM. Wraz z wybuchem drugiej wojny pojawiło się zapotrzebowanie na systemy, które umożliwiałyby komunikację między jednostkami biorącymi udział w walkach. Bardzo szybko skonstruowano wiele odbiorników i nadajników służących komunikacji ruchomej, robiąc jednocześnie olbrzymie postępy w pracach nad ich funkcjonowaniem i budową. Pod koniec wojny większość statków, samolotów, a nawet czołgów wyposażona była w swoje własne systemy komunikacyjne. Radiowe urządzenia komunikacyjne zaczęły być produkowane na szeroką skalę. Tym samym otwarta została droga dla rozwoju prawdziwego rynku komunikacji ruchomej. Tuż po wojnie, w Stanach Zjednoczonych zaczęto z powodzeniem wprowadzać systemy ruchome do takich sektorów, jak: policja, straż pożarna, energetyka, sieci wodociągowe i gazowe oraz transport. W 1946 roku, w St. Louis, nastąpiło połączenie sieci telefonii ruchomej ze stałą siecią telefoniczną. Nowe usługi zaczęto udostępniać coraz większej liczbie abonentów. Połączenia między stacją ruchomą i siecią stałą były w pierwszych systemach zestawiane ręcznie. Sytuacja taka utrzymywała się przez kilka lat, mimo opracowania systemu całkowicie zautomatyzowanego. W pierwszych systemach stosowany był jeden nadajnik o dużej mocy, który swym zasięgiem obejmował obszar o promieniu 40-50 mil. Szybko zorientowano się, że rozwiązanie korzystające z jednego nadajnika bardzo ogranicza pojemność systemu. Na potrzeby komunikacji ruchomej całego miasta można było wykorzystać zaledwie kilka kanałów. Zapotrzebowanie było znacznie większe, dlatego naukowcy bardzo szybko podjęli prace nad doskonalszymi rozwiązaniami. W końcu lat czterdziestych w laboratorium Bella pojawiła się koncepcja telefonii komórkowej.
Rozwój telefonii komórkowej
Nowe rozwiązanie pozwalało na zwiększenie pojemności systemu poprzez podział całości obszaru na mniejsze części zwane komórkami, które obsługiwane były przez nadajniki małej mocy. Na obszarze podzielonym w ten sposób możliwe stało się wielokrotne wykorzystanie tej samej częstotliwości w różnych komórkach, a tym samym zwiększenie liczby obsługiwanych stacji. Niemożliwe było użycie tych samych częstotliwości w komórkach sąsiadujących ze sobą, gdyż prowadziło to do tzw. interferencji współkanałowych, które wywoływały zakłócenia i uniemożliwiały osiągnięcie wymaganej jakości usługi. Okazało się, że występowanie interferencji jest uzależnione nie od odległości między komórkami wykorzystującymi tą samą częstotliwość, a od stosunku odległości do promienia komórek. Ponieważ promień komórki zależy od mocy użytego nadajnika, stosunek odległości do promienia mógł być regulowany przez inżynierów systemu. Inżynierowie pracujący nad rozwojem sieci komórkowej, wiedząc, że zmniejszanie rozmiarów komórek prowadzi do zwiększania pojemności systemu, zakładali teoretycznie możliwość budowy sieci składającej się z kilku tysięcy komórek, która mogłaby obsługiwać nawet milion użytkowników.
Budowa takiej sieci od samego początku byłaby niezmiernie kosztowna, dlatego zdecydowano się na konstrukcję systemu, dzieląc obszar na kilka dużych komórek, które z czasem miały być dzielone na coraz to mniejsze. Technika ta oferowała wiele korzyści, pozwalając na rozwój systemu w czasie i zwiększanie liczby użytkowników wraz ze wzrostem zainteresowania. W czasie prac nad nowym systemem pojawił się jeszcze jeden problem związany z przemieszczaniem się użytkowników z obszaru jednej komórki na obszar drugiej. Przy niewielkich rozmiarach komórek zmiany takie dokonywały się bardzo szybko, zwłaszcza w przypadku użytkowników korzystających z samochodów. Aby przejście z jednej komórki do drugiej nie miało wpływu na ciągłość transmisji, opracowano technikę przełączania kanałów (ang. hand-off). System komórkowy miał być wyposażony w centralne urządzenie kontrolujące stan połączeń w sieci, a także w systemie komutacji przełączający połączenia na obszar działania innego nadajnika. Wymagało to opracowania jeszcze kilku technik kontrolujących aktualne położenie stacji ruchomej. Nie było z tym zbyt wiele problemów i w roku 1947 prace nad pierwszą propozycją systemu telefonii komórkowej zostały zakończone. Mimo że pierwsza propozycja telefonii komórkowej pojawiła się już w końcu lat czterdziestych, na uruchomienie pierwszych systemów musiano poczekać jeszcze około 3 lata. Utworzenie sprawnie działającej sieci komórkowej wymagało przydziału nowych częstotliwości, którą to decyzję podjęto
w Stanach Zjednoczonych dopiero w latach sześćdziesiątych. Następne lata to okres standaryzacji oraz wielu regulacji prawnych związanych z wprowadzeniem nowych systemów, które na szerszą skalę zaczęły się pojawiać w latach osiemdziesiątych.
W Stanach Zjednoczonych był to system AMPS (ang. Advanced Mobile Phone Service), a w Europie: skandynawski system NMT (ang. Nordic Mobile Telephone System), europejska wersja AMPS nazwana TACS (ang. Total Access Communications System) oraz dwie mniej znane architektury: francuska R2000
i niemiecka C-450. Systemy te były systemami analogowymi i określa się je dzisiaj mianem systemów pierwszej generacji. Od chwili wprowadzenia, tempo, w jakim wzrastała ich popularność, było zaskoczeniem dla wielu ekspertów. W krótkim czasie z 2 usług w samej tylko Europie korzystały setki tysięcy abonentów. Rosnąca bardzo szybko liczba użytkowników sprawiła, że pojemność systemów analogowych zaczęła się wyczerpywać już w latach osiemdziesiątych. Pojawiła się również potrzeba opracowania ogólnoeuropejskiego systemu komórkowego. Istniejące systemy pierwszej generacji działały zupełnie niezależnie od siebie, co uniemożliwiało komunikację między abonentami dwóch różnych systemów. Problem ograniczonej pojemności sieci analogowych, a także potrzeba istnienia systemu działającego na terenie całej Europy dały początek opracowaniom nowego systemu.
Cyfrowy system telefonii komórkowej - GSM
W 1982 roku CEPT (Conference Europeenne des Administrations des Postes et des Telecommunications) widząc potrzebę ogólnoeuropejskiego standardu dla usług komunikacyjnych, zlecił opracowanie rekomendacji nowego systemu. Opracowaniem tym zajęła się grupa "Group Special Mobile, która wkrótce zarezerwowała dla przyszłego systemu dwa przedziały częstotliwości w paśmie 900 MHz. Główne założenia poczynione zostały do roku 1986. Widząc wielkie możliwości, jakie niesie ze sobą technika cyfrowa, zadecydowano, że nowy standard będzie całkowicie cyfrowy. Dawało to możliwość lepszego wykorzystania pasma radiowego, a tak że uzyskania zdecydowanie wyższej jakości transmisji. System cyfrowy umożliwia również realizację usług nieznanych w systemach analogowych oraz gwarantuje swoim użytkownikom większe bezpieczeństwo. Podjęto także decyzję, że nowy system będzie kompatybilny z siecią ISDN5. Założono, że do konstrukcji stacji ruchomych, w tym terminali kieszonkowych, zastosowane będą układy scalone VLSI6. Dzięki temu nowe terminale mogły być mniejsze i tańsze niż stacje stosowane do tej pory. We wrześniu 1987 roku powołano porozumienie przyszłych operatorów systemu, którego zadaniem miał być nadzór nad standaryzacją, opracowanie zasad taryfikacji oraz planowanie wprowadzenia usług. Ustalono wówczas termin uruchomienia systemu na lipiec 1991 roku. Mimo że podstawowa wersja systemu - nazwanego GSM (ang. Global System for Mobile communications) była gotowa już
w roku 1989, planowane wcześniej uruchomienie systemu opóźniło się. Przyczyną był brak opracowanych na czas testów homologacyjnych, służących do testowania elementów sieci GSM. Pierwszy system GSM został zaprezentowany na targach TELECOM w Genewie w październiku 1991 roku, a pierwsze komercyjne systemy uruchomiono w roku 1992. Od tej chwili popularność systemu rośnie
w oszałamiającym tempie. W 1993 roku istniało 36 sieci GSM w 22 krajach. W chwili obecnej jest już ponad 120 operatorów GSM w 70 krajach. Pomyślany jako system ogólnoeuropejski, GSM staje się praktycznie systemem ogólnoświatowym. 25 krajów spoza Europy kupiło lub nosi się z zamiarem jego kupna (m.in. Australia, USA, RPA, Rosja). Szacuje się, że do końca bieżącego roku z usług nowego systemu korzystać będzie co najmniej 10 milionów abonentów. W roku 1996 dwóch operatorów otrzymało licencje na uruchomienie sieci GSM w Polsce. Niezależnie od GSM na świecie istnieją jeszcze dwa cyfrowe systemy telefonii komórkowej: w USA system IS-95 i w Japonii system JDC (ang. Japanese Digital Cellular).
Telefonia komórkowa w Polsce
W naszym kraju pierwszy telefon komórkowy zaczął funkcjonować w roku 1992. Rok wcześniej, w lutym, rozstrzygnięto przetarg na budować polskiej sieci komórkowej. Wygrały go dwie znane firmy: Ameritech i France Telecom. Wspólnie z polskim partnerem, TP S.A., utworzyły one w październiku 1991 roku spółkę PTK Centertel Sp. z o.o., która została operatorem systemu telefonii komórkowej w Polsce. Dnia 28 grudnia 1991 otrzymała ona zezwolenie telekomunikacyjne upoważniające do zakładania i używania urządzeń sieci radiokomunikacji ruchomej oraz do świadczenia za ich pomocą usług. Systemem stosowanym w Polsce jest wspomniany wcześniej skandynawski system NMT, a dokładniej jego ulepszona wersja NMT 450i. Oficjalne uruchomienie tego systemu nastąpiło w Warszawie w czerwcu 1992, a w grudniu tego samego roku na terenie innych większych miast, między innymi Krakowa, Łodzi, Poznania, Szczecina i innych. Bardzo szybko łączność komórkowa pokryła 65 proc. powierzchni kraju, w tym wszystkie duże miasta i tereny wokół dróg i pomiędzy nimi. W maju 1995 roku liczba abonentów przekroczyła 50 tysięcy, a w chwili obecnej wynosi już ona przeszło 250 tysięcy użytkowników. Procentowy przyrost liczby abonentów od listopada 1994 r. do maja 1995 r. wyniósł w naszym kraju 112 % i był jednym z najwyższych w krajach Europy Środkowej i Wschodniej.
Rozwój radiokomunikacji ruchomej jest związany z łącznością typu komórkowego, przeznaczoną do obsługi abonentów ruchomych i stacjonarnych zarówno w systemach analogowych - opartych na emisji analogowych sygnałów radiowych, jak i bardziej nowoczesnych systemach cyfrowych (cyfrowy przekaz głosu i danych).
Wprowadzenie znormalizowanych systemów cyfrowych drugiej generacji (GSM/DCS) o zasięgu globalnym usuwa tę podstawową niedogodność dla abonenta, zmniejszając równocześnie zakres zajmowanego pasma częstotliwości. Systemy cyfrowe klasy GSM są oznaczone i normalizowane regionalnie: w Europie jako GSM 900 w paśmie 900 MHz oraz DCS 1800 w paśmie 1800 MHz, w Ameryce Północnej D-AMPS (Digital AMPS) oraz nowszy PCS 1900 (Personal Communication System), w Japonii PDC (Personal Digital Communication).


PRZEWODOWE PRZESYŁANIE DANYCH


SIEĆ TELEFONICZNA

Abonenci połączeni są ze sobą dzięki sieci telefonicznej, której głównym elementem są centrale. Pierwsza centralę telefoniczna uruchomiono, w 1878 roku, w stanie Connecticut w USA. Z początku połączenia byłe realizowane ręcznie przez operatorów. Pierwsza centrala automatyczna powstała w 1892 roku w stanie Indiana. Sygnały elektryczne wysyłane przez specjalny mechanizm wybierający dołączany do telefonu, uruchamiały przełączniki magnetyczne, które wybierały odpowiednie połączenie.
W nowoczesnym telefonie numer wybierany jest naciskając przyciski. Naciśnięcie przycisku powoduje wysłanie do centrali serii tonów, które ta rozpoznaje. Po podaniu całego numeru, połączenie jest realizowane. Dzisiaj telefony są zaledwie cząstką ogromnie rozbudowanej sieci telekomunikacyjnej. Połączenie wykonuje się nie tylko za pomocą tradycyjnych kabli, ale również światłowodami, poprzez fale radiowe, albo za pośrednictwem satelity, za pomocą wiązki mikrofalowej. Z sieci tej korzystają także komputery. Siecią telefoniczną, używając również zamiast normalnego telefonu telefaksu, faksu i poczty elektronicznej (e-mail), można przesłać dowolną informację w dowolnej formie do dowolnego miejsca na Ziemi, pod warunkiem że będzie tam ktoś dysponujący odpowiednim aparatem odbiorczym podłączonym do sieci.



Modem

Ogólna zasada działania tego urządzenia jest trochę podobna do transmisji radiowej. Zarówno przy transmisji modemowej, jak i w radiu, występuje pewien ciągły sygnał (tzw. nośna), który jest odpowiednio zmieniany (modulowany) w rytm przesyłania danych. Jak wiadomo, parametrami fali są: amplituda, częstotliwość i faza (przesunięcie fazowe). Za pomocą zmian, czyli modulacji każdego z tych parametrów nośnej, można zakodować informację. W radiu na falach ultrakrótkich stosuję się modulację częstotliwości, w skrócie FM (ang. Frequency Modulation), a w pozostałych pasmach - modulację amplitudy, w skrócie AM (ang. Amplitude Modulation). Często w przypadku przesyłania danych cyfrowych, a więc gdy występują tylko dwa dozwolone poziomy, słowo "modulacja" zamienia się słowem "kluczowanie" (ang. Shift Keying). W modemach (tych starszych) wykorzystywane były zarówno kluczowanie częstotliwości (FSK - ang. Frequency Shift Keying) jak i fazy (PSK - ang. Phase Shift Keying), a w nowszych rozwiązaniach stosuje się jednoczesną modulację fazy i amplitudy , zwaną modulacją kwadraturowo-amplitudową, w skrócie QAM (ang. Quadrature Amplitude Modulation). Do prawidłowego przesyłania informacji nie. wystarczy sama modulacja, ważne jest także samo przygotowanie danych do transmisji. Polega ono na zastąpieniu pewnych ciągów bitów innymi, łatwiejszymi do rozróżnienia, a operację tą realizuje układ zwany skramblerem, zaś powrotną zamianę po odbiorze - deskrambler. Począwszy od modemów V.32 zaczęto stosować kodowanie nadmiarowe za pomocą kodów TCM (ang. Trellis Coded Modulation. Kodowanie nadmiarowe polega na zastąpieniu pewnych ciągów bitów ciągami dłuższymi , ale łatwiejszymi do odróżnienia od pozostałych.

Modemy można podzielić na dwa zasadnicze rodzaje:


· zewnętrzne - podłączane do portu COM komputera, umożliwiają odbieranie wiadomości przy wyłączonym komputerze;


· wewnętrzne - mogą funkcjonować tylko przy włączonym komputerze, ale są znacznie tańsze niż zewnętrzne



Ciekawostka

Problem przesyłania danych pomiędzy komputerami próbowano rozwiązać na wiele sposobów. Gdy nie są one mocno oddalone od siebie, można próbować połączyć je kablem przez porty szeregowe lub za pomocą sieci lokalnej. Problem zaczyna się wtedy, gdy komputery te znajdują się w innych miastach, państwach czy na innych kontynentach. Warto zauważyć, że większość ludzi mieszkających w cywilizowanych krajach jest ze sobą już połączona przez sieć telefoniczną i byłoby wspaniale móc ją wykorzystać do transmisji danych komputerowych. Modem - co to takiego? Aby przesłać dane komputerowe (informacja cyfrowa) przez ogólnodostępną sieć telefoniczną (analogowa), nadawca musi je przekształcić na postać analogową dla potrzeb transmisji, a odbiorca z powrotem zamienić formę analogową na bity i bajty, zrozumiałe dla swojego komputera. Operację taką wykonuje urządzenie zwane modemem od ang. MOdulator DEModulator). Ponieważ sieć telefoniczna nie była projektowana pod kątem przesyłania nią danych komputerowych, więc istnieją w niej ograniczenia poważnie utrudniające taką transmisję. Najważniejszym z nich jest ograniczenie pasma przenoszenia do 3,5 kHz (co w zupełności wystarcza dla mowy ludzkiej), nie można też przesyłać nią składowej stałej sygnału. Modem może służyć do połączenia dowolnych dwóch urządzeń niekoniecznie komputerów), które potrafi nadawać i odbierać dane przez port szeregowy RS-232. Całą resztę, czyli skomplikowaną operację transmisji, potrafi przejąć na siebie odpowiednio skonfigurowany modem . Wydawałoby się to wszystko bardzo proste i piękne - tak niestety nie jest. Najważniejszą wadą modemów jest stosunkowo mała prędkość transmisji: najszybsze modemy obecnie stosowane (V.34) potrafią przesłać maksymalnie (w sprzyjających warunkach) ok. 3 kB danych na sekundę. Prędkość transmisji danych przez modemy (i nie tylko) podaje się w bitach na sekundę, w skrócie bps (lub w kilobitach na sekundę: kbps). Czasami użytkownik może spotkać się z jednostką "baud", która określa częstotliwość modulacji i z prędkością transmisji ma niewiele wspólnego. Jak działa modem? Ogólna zasada działania tego urządzenia jest trochę podobna do transmisji radiowej. Zarówno przy transmisji modemowej, jak i w radiu, występuje pewien ciągły sygnał (tzw. nośna), który jest odpowiednio zmieniany (modulowany) w rytm przesyłania danych. Jak wiadomo, parametrami fali są: amplituda, częstotliwość i faza (przesunięcie fazowe). Za pomocą zmian, czyli modulacji każdego z tych parametrów nośnej, można zakodować informację. W radiu na falach ultrakrótkich stosuję się modulację częstotliwości, w skrócie FM (ang. Frequency Modulation), a w pozostałych pasmach - modulację amplitudy, w skrócie AM (ang. Amplitude Modulation). Często w przypadku przesyłania danych cyfrowych, a więc gdy występują tylko dwa dozwolone poziomy, słowo "modulacja" zamienia się słowem "kluczowanie" (ang. Shift keying). W modemach (tych starszych) wykorzystywane były zarówno kluczowanie częstotliwości (FSK - ang. Frequency Shift Keying) jak i fazy (PSK - ang. Phase Shift Keying), a w nowszych rozwiązaniach stosuje się jednoczesną modulację fazy i amplitudy , zwaną modulacją kwadraturowo - amplitudową, w skrocie QAM (ang. Quadrature Amplitude Modulation). Do prawidłowego przesyłania informacji nie. wystarczy sama modulacja, ważne jest także samo przygotowanie danych do transmisji. Polega ono na zastąpieniu pewnych ciągów bitów innymi, łatwiejszymi do rozróżnienia, a operację tą realizuje układ zwany skramblerem, zaś powrotną zamianę po odbiorze - deskrambler. Począwszy od modemów V.32 zaczęto stosować kodowanie nadmiarowe za pomocą kodów TCM (ang. Trellis Coded Modulation. Kodowanie nadmiarowe polega na zastąpieniu pewnych ciągów bitów ciągami dłuższymi , ale łatwiejszymi do odróżnienia od pozostałych. Innym przykładem kodowania nadmiarowego jest kod ETF w odtwarzaczach CD-ROM (patrz rozdział o nośnikach danych).Teraz wyjaśnimy zasadę działania modemów i podstawowe pojęcia dotyczące transmisji: Slmplex : transmisja jednokierunkowa, dane są transmitowane tylko w jedną, ściśle określoną stronę (przykład: rozgłośnia radiowa - radioodbiornik). Half - duplex : (niepełny duplex, półduplex): w skrócie HDX, transmisja dwustronna , w której w tym samym czasie dane są transmitowane tylko w jedną stronę , a później następuje zamiana rolami nadajnika i odbiornika (przykład: CB- radio). W praktyce pod tą nazwą rozumie się także sytuację, w której dane w jedną stronę są transmitowane, normalnym, szerokim pasmem, podczas gdy istnieje w tym samym czasie kanał zwrotny, o przepustowości zbyt malej do normalnej transmisji danych. Full - duplex : (pełny duplex): w skrócie FDX: pełne dane są przesiane w tym samym czasie w obie strony (oczywiście po tej samej linii, przykład: telefon).Sposoby transmisji danych : W powyższym tekście pojawiły się też tajemnicze oznaczenia, składające się z literki V i cyfry. Są to oznaczenia norm ITU-TSS (ang. International Telcomrnuni- cations Union - Telecommunications Standardization Section: Sekcja Standaryzacji Międzynarodowej Unii Telekomunikacyjnej, dawniej CCITT), definiując sposoby transmisji danych przez modem. * V.21: historycznie najstarsza, umożliwiająca transmisję z prędkością do 300 b/s poprzez kluczowanie częstotliwości (FSK). Każda ze stacji dysponuje własnym kanałem, będącym parą częstotliwosc1, z których jedna określa logiczne 0, a druga l. * V.22: umożliwia transmisję z prędkością 600 albo 1200 bps poprzez kluczowanie fazy (PSK). Każda stacja pracuje na własnej częstotliwości nośnej, jednocześnie są kodowane dwa bity. * V.22bis: umożliwia transmisję z prędkością 2400 bps poprzez modulację kwadraturowo - amplitudową (QAM). Każda stacja pracuje na własnej częstotliwości nośnej, jednoczesn1e są kodowane cztery bity. * V.32: definiuje sposób transmisji z prędkością 4800 lub 9600 b/s kodowanie dwóch lub czterech bitów danych (PSK lub QAM).0bie stacje nadają na tej samej nośnej, sygnał drugiej stacji otrzymują poprzez eliminację sygnału własnego. Norma ta zakłada stosowanie korekcji błędów. 0pcjonalnie można stosować kodowanie TCM oraz zmniejszanie prędkości transmisji w przypadku zakłóceń na linii. * V.32bis: transmisja z prędkością 4800,7200,9600 i 14400 bps. Modulacja QAM, kodowanie od dwóch do pięciu bitów (stosowanie TCM). Przewidziano w tym standardzie możliwość dynamicznego zmieniania prędkości transmisji w dół i w górę (ang. retraining) oraz całkowitej renegocjacji parametrów połączenia. * V.34: najnowsza norma, umożliwiająca transmisję z prędkością od 2400 do 28800 bps. Kodowanie do dwunastu bitów danych za pomocą QAM + TCM na kilku różnych częstotliwościach nośnych (od 1,8 do 2 kHz). Możliwość dynamicznego zmieniania prędkości transmisji i renegocjacji parametrów połączenia. * V.FAST (lub V.FC): nie jest to norma ITU-TSS, ale pewien standard przyjęty przez producentów modemów w oczekiwaniu na normęV.34 (nie jest z nim zgodny, chociaż zakłada tą samą prędkość 28,8 kbps).Prawie wszystkie normy zakładają transmisję w trybie full duplex, z wyjątkiem protokołu HST firmy USRobotics, który był stosowany w pierwszych, tańszych modemach V.32 produkowanych przez tą firmę. Rozwinięciem standardu V.32 była norma V.32bis, zwiększająca prędkość transmisji do 14,4 kbps. Bardzo ważnym unowocześnieniem w stosunku do V.32 było także wprowadzenie możliwości obniżenia prędkości transmisji w przypadku pogorszenia się jakości połączenia, a gdy jakość się poprawi, nastąpi powrót do najwyższej możliwej prędkości (ang. retraining). Pomiędzy V.32bis a V.34 znajdują się prywatne rozwiązania bardziej znanych producentów modemów, jak np. ZyXEL (16,8 i 19,2 kbps) oraz USRobotics, a także trochę wyprzedzający normę V.34 standard transmisji z prędkością 28,8 kbps, który nazwano V.FAST lub V.FC (Fast Class). Standard ten spotkał się z raczej umiarkowanym zainteresowaniem użytkowników i sprawa rozwiązała się dopiero w roku 1994, kiedy organizacja ITU-TSS opracowała normę V.34. Jest to norma najbardziej uniwersalna ze wszystkich dotychczasowych i modem zgodny z nią potrafi porozumieć się praktycznie ze wszystkimi innymi (z wyjątkiem V.FAST na prędkości 28,8 kbps). Trzeba tu zaznaczyć, że norma V.34 korzysta z całej, teoretycznie dostępnej szerokosci pasma, a więc 300-3500 Hz, co powoduje, że przy połączeniach przez starsze centrale, które obcinają górną część pasma, efektywna prędkość transmisji nigdy nie wyniesie pełnych 28,8 kbps. Korekcja i kompresja : Wraz ze wzrostem prędkości transmisji malała odporność przesyłanych danych na wszelkie przekłamania spowodowane zakłóceniami na linii, wprowadzono więc sprzętową korekcję błędów, realizowaną przez same modemy, niezależnie od stosowanego oprogramowania. Generalna zasada działania wszelkich protokołów korekcji błędów sprowadza się do sprawdzania poprawności przesyłanych danych (zwykle w pakietach po kilkaset bitów), i w wypadku błędu następuje powtórzenie. Pierwszym powszechnie zaakceptowanym protokołem korekcji był MNP4, opracowany przez firmę Microcom. Rozwinięciem tego protokołu był MNPS, umożliwiający dodatkowo kompresję przesyłanych danych. Kompresja realizowana przez ten protokół była niezbyt wysoka (maksymalnie 2:1 ), a dodatkowo MNPS nie rozróżniał typów zbiorów i usiłował kompresować wszystkie przesyłane dane, co w efekcie prowadziło nawet do wydłużenia tych przesyłanych zbiorów, które były już wstępnie skompresowane (np. ZIP). Dużą zaletą tego protokołu jest łatwość jego realizacji na drodze programowej kiedy, nie dysponujemy modemem wyposażonym w sprzętowy MNP, można wtedy łączyć się z innym modemem używającym MNP przy wykorzystaniu wszystkich jego zalet. Drugim, znacznie lepszym standardem korekcji błędów jest LAPM (ang. Link Access Protocol for Modems), zdefiniowany w normie V.42 ustanowionej przez ITU- TSS. Opracowano też normę V.42bis, określającej powiązaną z LAPM metodę kompresji danych (odpowiednik MNPS). V.42bis jest znacznie lepszy od MNP, ponieważ oprócz dwukrotnego zwiększenia maksymalnego stopnia kompresji (4:1 ), stosowana jest "inteligentna" metoda, nie próbująca już kompresować wszystkiego "jak leci". Tak więc, w odróżnieniu od MNP, stosując V.42/V.42bis w najgorszym przypadku można spodziewać się takiej samej efektywności transmisji jak bez kompresji, nigdy zaś gorszej. Handshaking Korzystając z pakietyzacji danych w procesie korekcji błędów oraz z kompresji można znacznie przyspieszyć samą operację przesyłania przez modem tak, że komputer ter, utrzymujący na łączu z modemem taką samą prędkość nominalną, jak modemy ze sobą (np. 4800 bps), nie będzie nadążał z przesyłaniem bitów do wysłania i modem będzie musiał czekać, wydłużając tym samym połączenie. Stosuje się więc rozwiązanie polegające na wyposażeniu modemu w bufor pamięci i kilkakrotnym zwiększeniu prędkości na linii komputer-modem niż prędkość samego połączenia, wraz z zastosowaniem tzw. kontroli przepływu (ang. flow control). Kontrola przepływu to nic innego , jak powiadamianie komputera przez modem, kiedy ma przesyłać do niego dane, a kiedy czekać. Termin "handshaking" oznacza dokładnie to samo co flow control a sama operacja może być realizowana na drodze sprzętowej (ang. hardware handshaking) lub programowej (ang. software handshaking). Metoda programowa była stosowana w telekomunikacji od dawna: kiedy bufor w modemie się przepełni, informuje on komputer o tym wysyłając specjalny znak, nazwany XOFF. Komputer odbierając go wstrzymuje transmisję do momentu odebrania znaku XON, informującego o możliwości wznowienia transmisji, dlatego metoda ta jest też nazywana XON/XOFF. Jak łatwo się domyśleć, stosowanie tego sposobu kontroli uniemożliwia przesyłanie znaków o kodach takich samych jak XON czy XOFF, i chociaż można ominąć tą przeszkodę , to i tak odchodzi się od metody programowej na rzecz znacznie wygodniejszej kontroli sprzętowej. Wykorzystuje ona dwie oddzielne linie sygnałowe w złączu RS- 232, zwane RTS (ang. Request To Send) i CTS (ang. Clear To Send). Pierwszy sygnał informuje komputer, że modem chce do niego przesłać odebrane z linii dane, drugi o gotowości modemu do przyjęcia danych z komputera. Ważne jest, aby tak samo skonfigurować program komunikacyjny i modem, tzn. aby oba używały tego samego rodzaju kontroli przepływu.

Isdn

Rozwój sieci telekomunikacyjnych wymaga nie tylko poprawienia i ulepszenia właściwości poszczególnych rodzajów sieci przenoszących informacje, ale przede wszystkim przejścia na nowy poziom jakości, polegający na uniwersalnym podejściu do wszelkiego rodzaju usług oferowanych przez operatorów. ISDN określany jest mianem cyfrowej sieci łączącej wszelkie usługi telekomunikacyjne w jedną płaszczyznę. ISDN jest skrótem pełnej nazwy Integrated Services Digital Network.
ISDN znajduje zastosowanie niemalże w każdej dziedzinie ludzkiej działalności, pozwalając na przesyłanie informacji ze znacznie lepszą jakością i szybkością niż w tradycyjnej telefonii, oszczędzając cenny czas, energię i pieniądze. Usługi ISDN zaspokajają potrzebę posiadania niezawodnego a zarazem elastycznego medium do transmisji danych i służą do przesyłania plików i łączenia sieci LAN. Transmisja plików przez sieć ISDN charakteryzuje się większą szybkością i niezawodnością w porównaniu z transmisją przy użyciu modemu i może być korzystniejsza w porównaniu z łączami dzierżawionymi pod względem kosztów.
ISDN stosuje się powszechnie w sieciach komputerowych, gdzie znajduje zastosowania jako łącze awaryjne, dodatkowe pasmo na żądanie lub jako łącze na żądanie.
Łącze awaryjne jest potrzebne w przypadku uszkodzenia linii dzierżawionej, łączącej odległe oddziały firm. Wówczas router zestawia połączenie, wykorzystując sieć ISDN. Połączenie zastępcze może zostać zestawione automatycznie, użytkownicy nawet nie odczują uszkodzenia łącza dzierżawionego.

Dodatkowe pasmo na żądanie jest konieczne w okresach, kiedy zapotrzebowanie na pasmo transmisyjne przekracza możliwości stałego łącza dzierżawionego, a użytkownicy nie mogą pozwolić sobie na zmniejszenie wydajności sieci. W takiej sytuacji rozwiązaniem może być zestawienie dodatkowego połączenia ISDN. Gdy ruch na łączu stałym zmniejszy się, to połączenie ISDN zostanie zakończone. Połączenie dodatkowe może zostać zestawione automatycznie a użytkownicy nie odczują utrudnień związanych z maksymalnym wykorzystaniem łącza dzierżawionego.
ISDN znajduje zastosowanie jako łącze na żądanie, jeżeli ilość wymienianych informacji pomiędzy odległymi sieciami jest niewielka. Wtedy bardziej opłacalne od zestawienia łącza stałego może być wykorzystanie ISDN do połączenia sieci. Połączenie będzie zestawiane tylko na czas transmisji danych, a użytkownik będzie pracował tak, jakby korzystał z łącza stałego.
Wyróżniamy dwa rodzaje dostępu przez ISDN:
dostęp podstawowy BRA (Basic Rate Access),
dostęp pierwotny PRA (Primary Rate Access).

Strukturę dostępu BRA tworzą dwa kanały B (każdy o przepływności 64 kbit/s) oraz kanał D o przepustowości 16 kbit/s.
Kanały B pracują w trybie komutacji łączy i są przeznaczone do zestawiania połączeń między parą lub większą grupą komunikujących się abonentów oraz do zdalnego korzystania z wszelkiego rodzaju automatycznych systemów informacyjnych, takich, jak np. publiczne lub prywatne bazy danych. Zaletą kanałów B jest izochroniczny charakter zestawianych za ich pośrednictwem połączeń. Oznacza to, że wartość opóźnienia transmisji dla przesyłanych nimi danych jest stała i na ogół niewielka. Cecha ta umożliwia wymienianie danych między połączonymi terminalami w czasie rzeczywistym. Sytuacja taka znacznie ułatwia realizację usług wymagających dużej regularności w dostarczaniu do odbiornika kolejnych próbek zakodowanego przebiegu. Strumienie danych przenoszonych kanałami B mogą mieć nie tylko strukturę ciągów słów kodowych, ale także odpowiadać wszelkim wymaganiom transmisji w trybie komutacji pakietów. Pakietowy tryb pracy kanału B jest stosowany w przypadku korzystania przez abonenta np. z dostępu do systemów pracujących zgodnie z protokołem X.25 lub innych usług podobnego typu.
Kanał D umożliwia transmisję danych wyłącznie w trybie komutacji pakietów. Podstawowym jego przeznaczeniem było przesyłanie wiadomości sygnalizacyjnych między terminalami abonenckimi a odpowiednim wyposażeniem centrali sieci publicznej. Z biegiem czasu zdefiniowano jednak wiele usług (takich jak np. teleakcja), które korzystają z przesyłania danych właśnie za pośrednictwem kanału D. Urządzenia i systemy pracujące w czasie rzeczywistym zazwyczaj nie mogą stosować transmisji w trybie pakietowym. Najważniejszą niedogodnością związaną z używaniem tego trybu jest występowanie dużego i zmiennego w czasie opóźnienia przekazywanych odbiorcy kolejnych porcji informacji. W ostatnim czasie powstało jednak wiele aplikacji nie wymagających wysokiej rytmiczności dostępu do medium transmisyjnego (np. usługi z grupy teleakcji), które mogą przesyłać swoje dane za pośrednictwem kanału sygnalizacyjnego. Możliwość korzystania z kanału D ma dla abonenta tę cenną zaletę, że unika on zajmowania kanałów B połączeniami zastawianymi np. w celu przesłania długich plików danych komputerowych. Rozwiązanie takie jest szczególnie interesujące dla tych użytkowników, którzy korzystają z dostępu podstawowego do sieci ISDN. Należy jednocześnie wyjaśnić, że zaimplementowany system priorytetów dostępu do kanału D umożliwia zagwarantowanie wiadomościom sygnalizacyjnym pierwszeństwa w procesie rywalizacji o wspólne pasmo oraz, że przesyłanie tych wiadomości nie wymaga przerywania trwających aktualnie połączeń, zestawionych np. na żądanie użytkownika.
Abonent sieci ISDN może zestawić połączenia w każdym z wymienionych kanałów całkowicie niezależnie od sposobu aktualnego wykorzystywania pozostałej części przysługującego mu pasma transmisyjnego. Dozwolone jest również multipleksowanie w pojedynczym kanale kilku połączeń lub postępowanie odwrotne, polegające na zestawieniu połączenia dysponującego sumarycznym pasmem obu kanałów B. Rozwiązanie takie jest stosowane najczęściej w celu zagwarantowania szybkiej wymiany danych między terminalami abonenckimi i oddalonymi sieciami komputerowymi lub przeprowadzania transmisji wideofonicznej.
Całkowita przepustowość kanałów dostępu podstawowego do sieci ISDN wynosi 144kbit/s (2x64kbit/s + 16kbit/s). Jej wartość została ograniczona do podanych rozmiarów w celu umożliwienia wykorzystania istniejących łączy abonenckich (nieekranowana skrętka przewodów) do przenoszenia informacji w postaci cyfrowej. W ten sposób znacznie obniżono koszty instalacji nowego systemu, unikając konieczności wymiany okablowania pętli abonenckiej.
Format transmisji danych w łączu abonenckim dostępu pierwotnego odpowiada strukturze ramki podstawowej systemu PCM 30/32. Jego główną część tworzy 30 kanałów B o właściwościach identycznych jak analogiczne kanały dostępu podstawowego. Szczelina nr 16 jest zajmowana natomiast przez sygnalizacyjny kanał pakietowy D. Tym razem jego przepustowość została poszerzona do 64kbit/s, co jest w pełni uzasadnione faktem, iż obsługuje on tutaj znacznie większą liczbę połączeń niż ma to miejsce w przypadku dostępu podstawowego. Szczelina nr 0 jest wykorzystywana do synchronizacji ramki i pozostaje dla abonenta niedostępna.
Dostęp pierwotny oferuje abonentowi znacznie szersze pasmo transmisyjne i większą liczbę zestawianych jednocześnie połączeń. Jego stosowanie jest w pełni uzasadnione w przypadku podłączania do publicznej sieci ISDN różnego rodzaju małych central abonenckich, czy też lokalnych sieci komputerowych. Niestety, transmisja strumienia danych z szybkością 2,048 Mbit/s na odległość rzędu kilku kilometrów wymaga już stosowania kabla koncentrycznego lub światłowodu. Stąd też instalacja i eksploatacja dostępu pierwotnego znacznie przekracza koszty ponoszone przez abonenta dysponującego jedynie dostępem podstawowym. Użytkownik może wykorzystywać poszczególne kanały B całkowicie niezależnie lub też łączyć je w struktury o większej przepustowości. Proces łączenia kanałów w grupy nie może być przeprowadzony w sposób dowolny lecz podlega ścisłym regułom. Określają one zasady tworzenia kanałów pochodnych, zawierających kilka, kilkanaście lub pełną liczbę 20 kanałów podstawowych B.
Opisana powyżej struktura dostępu pierwotnego jest stosowana powszechnie w krajach europejskich i oznaczona została skrótem CEPT. Jej amerykańska odmiana (T1) została dostosowana do współpracy z systemem PCM 24 i zawiera taką właśnie sumaryczną liczbę kanałów. Ich podstawowe parametry i przeznaczenie są identyczne jak w opisanym wcześniej systemie europejskim.
Usługi oferowane abonentowi przez sieć ISDN należy rozgraniczyć na odmienne grupy:
usługi przenoszenia, nazywane również bazowymi,
teleusługi,
usługi dodatkowe.
Usługi bazowe są odpowiedzialne wyłącznie za przenoszenie strumieni danych między poszczególnymi punktami dostępu do sieci ISDN. W celu właściwej realizacji poszczególnych żądań użytkownika jest bowiem niezbędne zestawienie kanałów transmisyjnych o parametrach odpowiadających wymaganiom przesyłanych nimi sygnałów.
Do zadań realizowanych przez usługi przenoszenia nie należy natomiast sterowanie terminalami abonenckimi, programowanie ich parametrów lub nadzorowanie przebiegu wymiany danych. Usługi bazowe trybu komutacji łączy podzielono na trzy podstawowe rodzaje, z których każdy nieco inaczej definiuje parametry zestawienia kanału podkładowego. Poszczególnym z nich nadano następujące nazwy:
mowa,
3.1 kHz akustyczne,
64 kbit/s, nieograniczone.
Mowa - jest przeznaczona do przenoszenia cyfrowego sygnału fonicznego, zakodowanego zgodnie z normą G.711. Tworzony tor transmisji może w tym przypadku zawierać: konwertery A/m, tłumiki echa, a także układy i odcinki analogowe. Sygnał foniczny może być przekazywany zarówno innemu użytkownikowi, jak i odpowiednim systemom rozpoznawania mowy, np. w celu automatycznej realizacji żądań abonenta i sterowania usługami świadczonymi przez sieć za pomocą głosu. Omawiana usługa bazowa nie jest przeznaczona dla transmisji danych cyfrowych przekształconych na postać analogową, jak to ma miejsce w przypadku stosowania modemów lub teleksów grupy 1, 2 i 3. Zapewnia ona natomiast poprawną komunikację między abonentami dysponującymi zarówno cyfrowymi jak i analogowymi aparatami telefonicznymi, czyli współpracę sieci ISDN i PTSN.
3.1 kHz, akustycznie - kanał definiowany przez usługę 3.1 kHz, akustycznie, akceptuje szerszy zakres typów transmitowanych informacji. Umożliwia om bowiem przesyłanie dowolnego sygnału akustycznego, zakodowanego zgodnie ze standardem G.711. Usługa ta jest więc przeznaczona do wymiany strumieni informacji za pośrednictwem modemów, telefaksów grupy 1,2 i 3 oraz tworzenia typowych połączeń telefonicznych. Dopuszczalne jest również stosowanie w torze transmisyjnym konwerterów A/m, tłumików echa, a także układów i odcinków analogowych. Jedyne odstępstwo od tej zasady stanowi przypadek transmisji sygnałów niefonicznych, wymagający odpowiedniej modyfikacji struktury zestawionego połączenia tak, aby został wyeliminowany wpływ tłumików echa. Omawiana usługa gwarantuje również współpracę systemów cyfrowych z analogową siecią PTSN.
64 kbit, akustycznie - usługa ta tworzy w pełni przeźroczysty kanał cyfrowy PCM. Strumień transmitowanych nimi danych nie daje żadnych modyfikacji w czasie przenoszenia go miedzy punktami: źródłowym i docelowym. Usługa ta umożliwia przekazywanie zarówno sygnałów fonicznych, akustycznych dowolnego typu, jak i informacji cyfrowej, pochodzącej np. z terminali komputerowych, telefaksów grupy 4 lub innych urządzeń tego typu.

Do zadań realizowanych przez teleusługi należą: telefonia, telefax 4 oraz telefax 2/3, tryb mieszany, poczta elektroniczna, transmisja danych, wideofonia, telewizja, telealarm, telealert, telekomenda, telemetria.
Telefonia - przenoszenie zakodowanego cyfrowo sygnału akustycznego w sposób charakterystyczny dla typowej usługi telefonicznej. Sieć ISND zapewnia dodatkowo możliwość: poszerzenia pasma fonicznego do 7kHz, transmisji sygnału stereofonicznego oraz uzyskania połączenia konferencyjnego
Telefax 4 oraz Telefax 2/3- umożliwia abonentom wymienianie korespondencji w formie dokumentów zawierających informacje typu facsimile, automatycznie poprzez sieć ISDN. Usługa Telefax 4 może być realizowana w oparciu o usługi bazowe trybu łączowego lub pakietowego. Pożądana jest możliwość współpracy terminali Telefax 4 (dołączonymi do sieci ISDN) z terminalami Telefax 3 (dołączonymi do sieci telefonicznej lub do ISDN).

Tryb mieszany - umożliwia kombinowaną komunikację tekstową (Teleteks) i facsimile (Telefax 4) do przesyłania dokumentów zawierających przemieszane informacje tekstowe i nieruchome obrazy.
Videotex - podobnie jak teleteks jest przeznaczony do transmisji tekstu wzbogaconego ewentualnie o znaki semigraficzne. Podstawową jego cechą jest prezentacja odbieranego obrazu za pomocą monitora ekranowego. Videotex wprowadzono głównie w celu umożliwienia abonentowi zdalnego korzystania z baz danych (publicznych i prywatnych), bibliotek oraz innych systemów informacyjnych. Użytkownik ma w tym przypadku przywołać na ekran swego monitora (w obu poprzednich usługach treść odbieranych wiadomości zależała wyłącznie od ich nadawcy). Abonent może również modyfikować zawartość baz danych i zarządzać nimi. Konieczne jest oczywiście stosowanie odpowiedniego systemu różnicowania uprawnień dostępu do określonych rodzajów informacji, uzależnionego np. od stopnia ich tajności lub dopuszczalnego zakresu modyfikowania. Stopniowa ewolucja videotexu doprowadziła do przekazywana za jego pośrednictwem obrazów o wysokiej rozdzielczości (np. ilustracji z bibliotek encyklopedycznych), a następnie obrazów ruchomych. Docelowo (w sieci B-ISDN), omawiana teleusługa ma zapewnić również zdalny dostęp do bibliotek filmów wideo.

Poczta elektroniczna - pozwala nadawcy informacji na umieszczenie jej treści w specjalnie przeznaczonym do tego celu systemie sieciowym. Pozostawiona wiadomość może mieć formę pisma, mowy, lub ilustracji (zależną od rodzaju dostępnej "skrzynki elektronicznej") i zostać odebrana przez adresata w dowolnym momencie. Na uwagę zasługuje fakt ulokowania owej skrzynki nie w terminalu abonenckim, lecz w specjalnie przeznaczonych do tego celu urządzeniach sieciowych (pozostawiona wiadomość jest zwykle przechowywana w centrali sieci publicznej, która znajduje się najbliżej jej odbiorcy). Przesyłanie odpowiedniej informacji może więc nastąpić niezależnie od tego, czy abonent docelowy pozostawił włączony odpowiedni terminal, czy też nie. Jak wynika z przedstawionego opisu, omawiany system funkcjonuje na zupełnie innych zasadach niż te, które były charakterystyczne dla podobnych urządzeń analogowych takich, jak np. automatyczna sekretarka.
Transmisja danych- jest przeznaczona do realizacji połączeń między komputerami dwóch abonentów lub zdalnego dostępu do wybranej sieci komputerowej. Usługa ta może być realizowana zarówno w trybie komutacji pakietów, jak i komutacji kanałów. W przypadku wyposażenia komputera w odpowiednie urządzenia peryferyjne (skaner, drukarka, itp.) może on realizować funkcje praktyczne wszystkich pozostałych rodzajów terminali ISDN. Osiągana przez użytkowników szybkość transmisji jest determinowana liczbą wykorzystywanych jednocześnie kanałów oraz sposobem formatowania przesyłanego strumienia informacji. W przypadku realizacji zdalnego dostępu do lokalnych sieci komputerowych można uzyskać bardzo dobre efekty stosując odpowiednie urządzenia typu gateway. Zapewniają one zwykle automatyczną kompresję transmitowanego strumienia danych. Osiągana dzięki niej efektywna szybkość transmisji waha się od 1 do 2 Mbit/s, przy założeniu wykorzystywania obu kanałów B dostępu podstawowego. W przypadku używania aplikacji nie wymagających dużej przepustowości zestawionego połączenia, jest wskazane raczej wykorzystywanie kanału D. Unika się w ten sposób zajmowania kanałów B, umożliwiając tym samym realizację za ich pośrednictwem innych usług.

Wideofonia- początkowo zakładano, że w pierwszej fazie budowy sieci ISDN usługa ta ma zapewnić jednoczesną transmisję fonii i "wolnych obrazów". Bardzo szybki postęp w technice kompresji obrazów ruchomych pozwala jednak sądzić, iż w niedługim czasie możliwa będzie transmisja sygnału wizji o stosunkowo dobrej jakości, z szybkością nie przekraczającą przepustowości kanału 2B. Już obecnie wiele firm oferuje abonentom sieci ISDN terminale wideofoniczne, posiadające formę samodzielnych urządzeń lub kart do komputerów PC. Jednak ciągle można mieć wiele zastrzeżeń do jakości odtwarzanego przez nie obrazu. Pełne możliwości tej usługi będą dostępne dla użytkowników sieci szerokopasmowej. Głównym zadaniem połączenia wideofonicznego jest umożliwienie przeprowadzenia wideo konferencji między grupą osób znajdujących się w różnych częściach świata. Obraz towarzyszący sygnałowi fonicznemu pozwoli na dyskusję nad rysunkami, schematami, fotografiami oraz dokumentami wszelkiego innego rodzaju.

Telewizja - usługa ta stanie się dostępna dopiero w sieci B ISDN. Dzięki zastosowaniu cyfrowego kodowania obrazu możliwa będzie znaczna poprawa jego jakości (eliminacja zakłóceń, szumów i zniekształceń powstających w czasie transmisji).

Telealarm - przekazywanie komunikatu o alarmie z czujników zainstalowanych u abonenta (np. przeciwpożarowych, przeciw włamaniowych, itp.) do odpowiednich centrów dyżurnych sieci. Transmisja odpowiedniej informacji jest inicjowana całkowicie automatycznie i nie wymaga żadnej formy nadzoru ze strony użytkownika. Usługa ta może zostać wzbogacona w przyszłości o wiele nowych możliwości, związanych np. z sygnalizacją ulatniania się gazu lub zdalnym nadzorem instalacji podobnego typu.

Telealert - przekazywanie podobnych jak poprzednio komunikatów, ale w przeciwnym kierunku, tzn. z centrów nadzorujących bezpieczeństwo mieszkańców danego obszaru do wszystkich dostępnych terminali abonenckich. Treść wiadomości przesyłanych w obrębie tej usługi może dotyczyć np. podnoszenia się poziomu wód, stężenia zanieczyszczeń atmosferycznych lub danych pochodzących z centrów sejsmograficznych.

Telekomenda - oferuje możliwość zdalnego sterowania wybranymi urządzeniami zainstalowanymi u abonenta. Najważniejszymi przykładami praktycznego zastosowania omawianej teleusługi są np. centrale nadzorowania systemu ogrzewania pomieszczeń, nawadnianie trawników, oświetlenia ulic, itp. Stosowanie tego typu rozwiązań może przyczynić się w znacznej mierze do obniżenia kosztów eksploatacji niektórych urządzeń. Włączanie ich w czasie obowiązywania niższej taryfy opłat za energię elektryczną lub efektywne dostosowanie ich pracy np. do zmieniających się warunków atmosferycznych, jest korzystne zarówno z punktu widzenia użytkownika, jak i producenta energii.
Telemetria - pozwala na zdalne odczytywanie stanu różnego rodzaju liczników i mierników zainstalowanych u abonenta (gazomierzy, liczników zużycia energii elektrycznej, wodomierzy, itp.). Uzyskiwane w ten sposób dane są przekazywane natychmiast wskazanym centrom rozliczeniowym, które na ich podstawie określają należności, jakie powinni uiścić poszczególni abonenci. Dokonanie owych rozliczeń finansowych może zresztą również odbywać się w sposób całkowicie automatyczny poprzez przeprowadzenie operacji przelewów między odpowiednimi kontami bankowymi.

Usługi dodatkowe: prezentacja numeru abonenta wywołującego (CLIP), blokada prezentacji numeru abonenta wywołującego (CLIR), prezentacja numeru abonenta wywołanego (COLP), blokada prezentacji numeru abonenta wywołanego (COLR), wielokrotny numer abonenta (MSN), przenośność terminala (TP), sygnalizacja abonent-abonent (UUS), połączenie oczekujące (CW), połączenie zawieszone (CH) , poadresowanie (Subaddressing), informacja o opłacie (AOC), blokada połączeń wychodzących (OCB).
Prezentacja numeru abonenta wywołującego (CLIP) - usługa oferowana jest stronie wywoływanej w celu uzyskania informacji o numerze abonenta wywołującego. Abonent wywoływany otrzymuje w chwili zestawienia połączenia pełny numer katalogowy abonenta, wystarczający do nawiązania połączenia w drugą stronę. Numer abonenta wywołującego nie jest przekazywany abonentowi wywoływanemu, gdy abonent wywołujący korzysta z usługi CLIR.
Blokada prezentacji numeru abonenta wywołującego (CLIR) - usługa pozwalająca abonentowi na zabronienie podawania jego pełnego numeru katalogowego stronie, z którą nawiązuje on połączenie. Usługa może być aktywna dla wszystkich nawiązywanych połączeń (usługa uaktywniana w centrali), lub wywoływana z terminala zgodnie z żądaniem abonenta.
Prezentacja numeru abonenta wywołanego (COLP) - usługa oferowana jest stronie nawiązującej połączenie dla uzyskania informacji o numerze abonenta, z którym zostało zrealizowane połączenie. Numer osiągnięty nie jest przekazywany gdy abonent, z którym zostało nawiązane połączenie korzysta z usługi COLR.
Blokada prezentacji numeru abonenta wywołanego (COLR) - usługa pozwalająca abonentowi na zabronienie podawania jego pełnego numeru katalogowego stronie, która nawiązuje z nim połączenie.
Wielokrotny numer abonenta (MSN) - usługa pozwalająca na zastosowanie więcej niż jednego numeru na tym samym łączu fizycznym. Usługę tą stosuje się w celu rozróżniania terminali dołączonych do jednego zakończenia sieciowego (NT1). Dzięki tej usłudze istnieje możliwość zdefiniowania oddzielnych zestawów usług dla poszczególnych terminali.
Przenośność terminala (TP) - usługa umożliwiająca chwilowe zawieszenie aktualnego połączenia w celu: przeniesienia terminala do innego gniazdka w ramach tego samego dostępu podstawowego, a następnie przywrócenie połączenia z tego samego terminala,
zmienienia jednego terminala na inny terminal dołączony do innego gniazdka w ramach tego samego dostępu podstawowego, a następnie przywrócenie z niego połączenia,
zastąpienia terminala przez inny, dołączony do tego samego gniazdka i przywrócenie z niego połączenia, zastąpienia terminala przez inny, dołączony do tego samego gniazdka i przywrócenie z niego połączenia, przywrócenia połączenia w terminie późniejszym z tego samego terminala.

Sygnalizacja abonent-abonent (UUS) - usługa pozwalająca dwóm abonentom ISDN na wzajemną wymianę krótkich informacji (w postaci ciągu znaków) podczas zestawiania lub rozłączania połączenia. Odebranie informacji nie wymaga podejmowania żadnych akcji ze strony abonenta wywoływanego, gdyż informacja jest zapamiętywana przez terminal. Maksymalna długość przesyłanych informacji wynosi 128 bajtów.
Połączenie oczekujące (CW) - dzięki usłudze CW abonent prowadzący rozmowę telefoniczną, do którego kierowane jest kolejne wywołanie, może otrzymać informację o nowym wywołaniu. Wówczas abonent ten może wybrać jedną z następujących opcji:
zignorować wywołanie oczekujące (abonent wywołujący otrzyma sygnał oczekiwania), odrzucić wywołanie oczekujące (abonent wywołujący otrzyma sygnał zajętości), przyjąć wywołanie oczekujące i zakończyć połączenie dotychczasowe, przyjąć wywołanie oczekujące i zawiesić połączenie dotychczasowe.

Połączenie zawieszone (CH) - usługa pozwalająca na zawieszanie dotychczasowego połączenia i ponowne jego uaktywnianie. Abonent może równocześnie zawiesić kilka połączeń i to niezależnie od tego czy jest stroną wywołującą czy wywoływaną.
Poadresowanie (Subaddressing) - usługa umożliwiająca odróżnienie terminali podłączonych do jednego zakończenia sieciowego poprzez subadress dołączony do numeru abonenta. Subadress może być również wykorzystywany do przesyłania podczas zestawiania połączenia dodatkowych informacji, których długość nie przekracza 20 bajtów.
Informacja o opłacie (AOC) - usługa pozwalająca abonentowi na kontrolę należności za aktualnie zestawione połączenie, zarówno w trakcie jego trwania, jak i po jego zakończeniu.

Blokada połączeń wychodzących (OCB) - usługa umożliwiająca zablokowanie realizacji niektórych połączeń wychodzących z danego aparatu, np. połączeń międzymiastowych lub połączeń międzynarodowych.
Cyfrowa sieć zintegrowana usługowo ISDN (Integrated Services Digital Network) stanowi kolejny etap rozwoju systemów telekomunikacyjnych. W odróżnieniu od wcześniejszych rozwiązań, oferuje ona zdolność jednoczesnego świadczenia szerokiego wachlarzu usług, które do tej pory były realizowane przez wydzielone, wyspecjalizowane sieci. Integracja usług oznacza więc wykorzystanie wspólnego medium oraz urządzeń teletransmisyjnych do przenoszenia wielu rodzajów informacji. Realizacja wspomnianego założenia staje się możliwa, jeżeli transmitowanym strumieniom danych zostanie nadana identyczna forma, pozwalająca na ujednolicenie sposobu ich przenoszenia miedzy kolejnymi centralami sieci. Warunek ten może być łatwo spełniony, jeśli zastosuje się wyłącznie cyfrową reprezentację transmitowanych sygnałów. W tym przypadku niezbędne staje się jednak wyeliminowanie ze struktury systemu teletransmisyjnego odcinków analogowych, co z kolei narzuca konieczność przeprowadzenia procesu cyfryzacji pętli abonenckiej. Wprowadzenie w łączu abonenckim wyłącznie cyfrowej transmisji sygnałów wyróżnia sieć ISDN od istniejących wcześniej systemów. Przekazywanie informacji cyfrowej miedzy terminalami komunikujących się użytkowników umożliwia rozszerzenie zakresu rodzajów przesyłanych informacji. Różnorodność ich typów stanowi podstawę integracji usług.
Logiczna struktura tzw. dostępu abonenckiego do sieci ISDN niesie ze sobą jeszcze jedną zaletę nowego systemu. Jest nią wydzielenie specjalnego kanału sygnalizacyjnego (kanał D), czyli zastosowanie tzw. sygnalizacji poza pasmowej (a raczej poza kanałowej). Wspomniane rozwiązanie pozwala użytkownikowi komunikować się z obsługująca go centralą niezależnie od faktu, czy aktualnie jego kanały \"rozmowne\" są zajęte realizacją innego połączenia. Możliwy staje się ciągły dostęp do oferowanych przez sieć usług (również w czasie trwania połączenia), na co nie pozwalały rozwiązania wcześniejsze.

Aby zostać abonentem sieci cyfrowej ISDN musimy znajdować się w obszarze działania centrali cyfrowej oferującej usługi typu ISDN oraz odpowiednie służby techniczne operatora muszą przeprowadzić pomiary łącza abonenckiego na podstawie których można wydać warunki techniczne określające możliwość włączenia stacji abonenckiej do sieci ISDN.
Do komunikacji z urządzeniami ISDN używane się następujące interfejsy:
"U" - przenoszący sygnały od użytkownika do centrali telefonicznej po jednej parze przewodów na odległość do 6 km.
"S/T" - przenoszący sygnały od gniazdka telefonicznego do urządzenia ISDN po dwóch parach przewodów.
Jeśli sprzęt zainstalowany u użytkownika wymaga S/T należy zastosować konwerter NT (Network Termination), który posiada najczęściej jeden interfejs U i dwa interfejsy S/T.

Łącze abonenckie (2B+D) jest zrealizowane na parze telefonicznej (styk U). Oznacza to, że jeśli abonent posiada już linię telefoniczną, to nie ma potrzeby instalacji nowego łącza. Abonent otrzymuje urządzenie zwane NT (Network Terminal), które jest zasilane z sieci ~220 V.
Od strony abonenta do NT dochodzi znormalizowany styk S. Są to 4 (opcjonalnie 8) przewody o długości do 500 m. Wszystkie urządzenia są dołączone równolegle przewodami do 10 m. W przypadku długiej linii (styku S) może być konieczne zakończenie jej opornikami 100 Om. Dla pełnego wykorzystania sieci ISDN specjalnie opracowano cyfrowe terminale zgodne z ogólnymi międzynarodowymi standardami np. karty PC ISDN, aparaty ISDN, modemy itp. Jednak nie znaczy to, że nie można korzystać nadal ze starych, sprawnych urządzeń. Podłączenie analogowych urządzeń odbywa się poprzez specjalne adaptery, które mogą być w zależności od wersji wbudowane w zakończenie sieciowe (NT) znajdujące się u abonenta.

SIEĆ KOMPUTEROWA

Sieć - system komunikacyjny, który pozwala komputerom wymieniać między sobą informacje. Sieci działają wedle określonego zestawu reguł, gwarantującego bezpieczeństwo i niezawodność przesyłania informacji. Sieci zwiększają wydajność pracy, pomagają unormować sposoby działania, obowiązujące procedury i stosowanie praktyki wśród swoich użytkowników, ułatwiają prezentowanie różnorodnych pomysłów na ogólnym forum, wspomagają rozprzestrzenianie się informacji
Sieć komputerowa to połączenie wielu komputerów za pomocą medium transmisyjnego w celu osiągnięcia następujących efektów: wymiana informacji pomiędzy połączonymi komputerami, udostępnianie użytkownikom zasobów sieci i podniesienie stopnia niezawodności systemu.
Sieci stały się popularne ponieważ umożliwiają współdzielenie zasobów komputerowych, urządzeń peryferyjnych takich jak drukarki czy pamięci masowe, aplikacji, oraz co najważniejsze, informacji, które są potrzebne przez ludzi do ich pracy. Przed erą sieci lokalnych, pojedyncze komputery były izolowane od siebie oraz ograniczone tylko do swoich indywidualnych możliwości. Przez połączenie tych komputerów w sieć, ich przydatność oraz efektywność wzrosły ogromnie. Można wyróżnić następujące rodzaje sieci:
- równorzędne (peer-to-peer),
- lokalne (LAN),
- miejskie (MAN),
- rozległe (WAN),
- globalne (np. Internet)
W sieciach typu peer-to-peer nie jest potrzebny serwer. Wszystkie komputery w tej sieci działają na tych samych prawach. Programy znajdują się na każdej z podłączonych maszyn, natomiast za pośrednictwem sieci przesyłane są jedynie potrzebne dane.

Sieć LAN
(Local Area Network - sieć lokalna) - z poziomu technologii eksperymentalnych stała się wiodącym narzędziem biznesu na całym świecie. Sieci LAN są bardzo szybkim systemem zaprojektowanym w celu łączenia komputerów oraz innych urządzeń przetwarzania danych w całość na niewielkim terenie, takim jak na przykład pojedyncze pomieszczenie, biuro, pojedyncze piętro czy nawet cały budynek. Sieci LAN mogą również być łączone ze sobą, aby zwiększyć ich zasięg.
Dzisiejsze sieci lokalne (LAN) oraz sieci intranetowe są potężnym narzędziem, aczkolwiek łatwym w użyciu dla użytkownika końcowego. Taka sieć zawiera jednak wiele skomplikowanych technologii, które muszą ze sobą współpracować. Żeby sieć naprawdę była w pełni wykorzystana, musi być zaprojektowana aby sprostać wszelkim cechom oraz wymaganiom użytkowników, niezależnie czy indywidualnych, czy też pracownikom firmy. Budowanie sieci jest wybieraniem odpowiednich komponentów oraz łączenia ich razem.

Sieć MAN
(Metropolitan Area Network - sieć miejska) - sieci tego rodzaju budowane są w dużych miastach; charakteryzują się wysoką przepustowością i są używane przede wszystkim przez urządzenia badawcze i w zastosowaniach komercyjnych o nasilonym przepływie danych. Składają się z sieci lokalnych łączonych w różny, zróżnicowany w zależności od potrzeb sposób.

Sieć WAN
(Wide Arena Network - sieć rozległa) - jest to sieć rozległa bazująca na połączeniach telefonicznych, złożona z komputerów znajdujących się w dużych odległościach od siebie, np. łącząca ze sobą użytkowników poczty elektronicznej na terenie całego kraju; wymagane jest zaangażowanie publicznej sieci telekomunikacyjnej; sieć rozległa łączy sieci lokalne LAN i miejskie MAN. Rozległe sieci WAN integrują płaszczyznę telefoniczną i informatyczną. Zastosowane muszą być rozwiązania zapewniające szybkość transmisji danych, niezawodność łączy cyfrowych oraz bezpieczeństwo przesyłu danych. W systemie stosuje się urządzenia najnowszej generacji. Sieć przewiduje implementację aplikacji telekomunikacyjnych takich, jak transfer danych komputerowych, wideo konferencje dzielenie plików, przenoszenie połączeń do komputerów znajdującego się poza LAN, do domu, firmy, samochodu i wielu innych miejsc. Do realizacji połączeń dla sieci WAN zastosuje się routery, których zadaniem jest realizowanie pomostu pomiędzy oddalonymi sieciami oraz realizowanie dostępu do Internetu. Bezpieczeństwo routera od strony sieci komputerowej jest nadzorowane przez procedurę autoryzacyjną kontrolującą logowanie użytkowników do urządzenia. Łączność - publiczne sieci telekomunikacyjne PSTN, lub pakietowa PSDN. Łącza: kablowe, światłowodowe, mikrofalowe, satelitarne.
Sieci globalne - najpopularniejszą globalną siecią komputerową jest sieć Internet. Składa się ona z setek tysięcy sieci lokalnych używających protokołu komunikacyjnego TCP/IP (Transport Control Protocol / Internet Protocol).

Podział sieci ze względu na obszar i topologię

Wyróżnia się cztery najczęściej stosowane topologie:
- szynowa (magistralowa),
- pierścieniowa,
- gwieździsta,
- drzewiasta.
Wymienione topologie są strukturami logicznymi technicznie nie muszą być w taki sposób zorganizowane.
Topologia szynowa (magistralowa) to konfiguracja, w której wszystkie komputery podłączone są do wspólnego medium transmisyjnego rozprowadzającego w sposób bierny sygnał. Dołączenie lub odłączenie komputera nie wpływa na pracę pozostałych urządzeń w sieci. Maksymalną długość łącza oraz ilość podłączonych stacji definiują normy w zależności od typu łącza. Przy intensywnej transmisji danych może dochodzić do konfliktów. Topologia ta charakteryzuje się niskim poziomem bezpieczeństwa, gdyż wszystkie dane transmitowane są jednym łączem, a więc ich przechwycenie przez nieuprawnionego użytkownika jest wysoce prawdopodobne. Przerwanie medium transmisyjnego (magistrali) powoduje zaprzestanie działania całej sieci, dodatkowo należy nadmienić, że lokalizacja uszkodzeń i błędów transmisji jest stosunkowo trudna.
Topologia pierścieniowa jest strukturą, w której stacje sieciowe są podłączone do okablowania tworzącego pierścień. Dane w układzie krążą w koło, ale tylko w jedną stronę, poszukując adresu przeznaczenia. W porównaniu do sieci szynowej, wzrasta wydajność sieci. Stosowana jest w sieciach Token Ring oraz FDD (Fiber Distributed Data Interface - to cyfrowa sieć o topologii podwójnych przeciwbieżnych pierścieni).
W topologii gwieździstej kable sieciowe są połączone w jednym wspólnym punkcie w którym znajduje się hub lub przełącznik. Topologia ta jest w odróżnieniu od topologii szynowej odporna na uszkodzenia pojedynczych jednostek, lub połączeń z nią. Jej zaletą jest bezpieczeństwo i wydajność. Stosowana w Token Ring.
Topologia drzewiasta jest strukturą podobną do topologii szynowe, z tą różnicą, że są tu możliwe gałęzie z wieloma węzłami.

Internet
Jest rozwinięciem niewielkiej sieci stworzonej na zamówienie Pentagonu w połowie lat 70. Internet jest "siecią sieci komputerowych". Składa się on z wielu lokalnych sieci należących do przedsiębiorstw, agencji rządowych i ośrodków akademickich. Sieć lokalna to grupa komputerów połączonych ze sobą lub z komputerem głównym (zwanym serwerem), które znajdują się blisko siebie. Większość firm na całym świecie korzysta z takich sieci. Wszyscy użytkownicy sieci lokalnej używają komputerów biurowych lub przenośnych wyposażonych w karty sieciowe. Karta taka może się znajdować wewnątrz komputera lub być z nim połączona przez jeden z zewnętrznych portów. Karty (a tym samym i komputery w nie wyposażone) są przyłączone za pomocą przewodów i sprzętu elektronicznego do jednego lub większej liczby serwerów sieciowych, na których znajdują się dane i programy.
Z Internetu korzystają użytkownicy tysięcy sieci przyłączonych do niego, a także miliony osób, które uzyskują do niego dostęp za pomocą linii telefonicznych i kont oferowanych przez wiele firm. Wszystkie te firmy (są one nazywane dostawcami usług internetowych) korzystając z jednego lub większej liczby serwerów sieciowych przyłączonych do Internetu. Wszystkie te serwery są wyposażone w wiele modemów. Dzięki temu użytkownicy mogą za pośrednictwem linii telefonicznej połączyć się z dostawcą usług internetowych. Lokalny komputer staje się wtedy komputerem-klientem, który współpracuje z serwerem i używa jego cyfrowych linii transmisyjnych do uzyskania połączenia z Internetem.
Każdy serwer przyłączony do Internetu staje się jego częścią. Innymi słowy, Internet łączy wszystkie do siebie przyłączone serwery obsługujące sieci lokalne, rozległa i używane przez dostawców usług internetowych.
Usługi internetowe można podzielić na trzy grupy:
a) usługa pozwala na komunikowanie się dwóch lub więcej osób (poczta elektroniczna, NEWS i IRC).

Poczta elektroniczna
(e -mail) - najbardziej znana usługa. Umożliwia wysyłanie poczty elektronicznej innym użytkownikom sieci, oczywiście aby z kimś korespondować należy znać jego adres. Adres w poczcie elektronicznej składa się z nazwy komputera w sieci (@korporacja.com) oraz indyfikatora użytkownika na tym komputerze (Jan Kowalski). Poprzez e-mail mamy dostęp do specjalnych skrzynek kontaktowych (tzw. list dyskusyjnych) dla ludzi zainteresowanych jakimś konkretny tematem. Listy wysyłane pod adresem takiej skrzynki są następnie rozsyłane do wszystkich jej uczestników. Listy dyskusyjne nie są przy tym zorganizowane raz na zawsze, przy braku zainteresowania ulegają likwidacji a w ich miejsce powstają nowe, poświęcone nowym tematom. Warunkiem jest tylko zgłoszenie się odpowiedniej liczby osób.

News
Wiadomości udostępnia inną możliwość wymiany informacji, działającej na odwrotnej zasadzie do listy dyskusyjnej. O ile listy dyskusyjne rozsyłają listy do swoich członków, o tyle grupy newsowe są miejscami gdzie korespondenci zostawiają swoje wiadomości.

Irc
(Internet Realy Chat) - jest to system umożliwiający prowadzenie zbiorowych dyskusji w jednym z około dwóch i pół tysiąca istniejących obecnie kanałów poprzez wysłania wiadomości do wszystkich osób włączonych w dany kanał lub wiadomości prywatne do wybranego uczestnika dyskusji. Programy obsługujące IRC pozwalają na dyskusję na kilku kanałach jednocześnie. Każdy z uczestników dyskusji IRC przed przystąpieniem do rozmowy musi wybrać sobie identyfikator, unikalny w skali danego kanału. Każda wypowiedź pojawiająca się na ekranach wszystkich osób na danym kanale, jest poprzedzona tym identyfikatorem. Oprogramowanie IRC daje możliwość zwracania się bezpośrednio do wybranego rozmówcy. Protokół IRC pozwala również uzyskać informacje o osobach używających identyfikatorów. Przykładowymi komendami mogą być /amsg, /whois, /chanel, itp. itd. Są niezwykle przydatne gdy chcemy się czegoś dowiedzieć bez wiedzy rozmówcy ( np. poznać jego adres e - mail ). Nazwy kanałów IRC rozpoczynają się od znaku # poprzedzającego nazwę, a na liście podany jest również preferowany na kanale temat rozmów. Istnieją również kanały prywatne różniące się od publicznych tym że aby się tam dostać, włączyć do rozmowy trzeba znać hasło lub posiadać specjalne zaproszenie. Rozmowy mogą być wzbogacone efektami dźwiękowymi lub graficznymi, a nawet odpowiednie oprogramowanie IRC ( Microsoft Comic Chat for Windows 95 ) proponuje możliwość rozmowy w formie komiksu.
b) usługi pozwalające na przesyłanie plików (danych) (FTP, WWW)

Ftp
To efektywna transmisja plików. Od czasu gdy komputery zostały ze sobą połączone w sieć zaczęły także przesyłać między sobą informacje. Obecnie, w czasach gdy Internet jest siecią globalną, różnego rodzaju pliki krążą po całym świecie. Do ich transmisji utworzono specjalny protokół nazwany FTP (File Transfer Protocol). Umożliwia on przeciętnemu użytkownikowi manipulowanie plikami na zdalnych komputerach oraz ściąganie udostępnionych w tysiącach obecnych archiwów plików.
Korzystanie z FTP przynosi wiele korzyści. Po pierwsze istnieje na świecie wiele archiwów na całym świecie, które oferują setki gigabajtów informacji w postaci tekstów, grafiki, dźwięku. Szukając w tych archiwach konkretnego pliku, możemy być prawie pewni, że go odnajdziemy.
Po drugie prędkość przesyłania danych za pomocą usługi FTP jest o wiele bardziej efektywna niż ściąganie plików np. z witryn WWW. Wpływ na to ma prędkość transmisji danych poprzez FTP. Ma to duże znaczenie dla przeciętnego użytkownika korzystającego z zasobów sieci przez łącza telefoniczne.
Usługa FTP umożliwia nam przesyłanie plików dwoma sposobami. Pierwszym sposobem przesyłamy plik nie dokonując w nim żadnych zmian, za pomocą drugiego natomiast niektóre bity są kodowane innym systemem. Nie należy więc przesyłać plików typowo binarnych (archiwów ZIP, plików wykonywalnych EXE) przy pomocy trybu ASCII, gdyż zmiany jakie zostaną wprowadzone spowodują niemożność odczytania takiego pliku.
Dane przy pomocy FTP są przesyłane w dwóch trybach: zwykłym i anonimowym. Zwykły tryb, to tryb, w którym korzystamy z zasobów konta chronionego. Aby użyć tego trybu należy mieć odpowiednie uprawnienia(tzn. własne konto i hasło). Tryb anonimowy służy do korzystania z informacji na serwerach ogólnodostępnych.

www
(WORLD WIDE WEB- światowa pajęczyna lub w skrócie WEB) - najpopularniejsza z dostępnych usług w sieci Internet. Zbiór dokumentów stworzonych najczęściej, choć niekoniecznie, przy pomocy języka HTML i odnoszących się do siebie nawzajem dzięki tzw. odnośnikom. Pomimo, że dokumenty te są umieszczone na różnych komputerach w odległych od siebie geograficznie miejscach, wspólny system nazw oparty na tzw. URL umożliwia stworzenie w ramach danego dokumentu odnośnika do niemal każdego innego, dostępnego w sieci Internet.
Wielką popularność WWW zawdzięcza niezwykłej łatwości obsługi, tworzenia i utrzymywania odpowiednich dokumentów, a także atrakcyjnej stronie graficznej.
Jest najpopularniejszą częścią Internetu. Web oparty jest o metodę prezentacji danych zwaną hypertext'em, pozwalającą mieszać tekst z grafiką i dźwiękiem. Na stronach WWW możemy przeczytać najświeższe informacje, zwiedzić galerie sztuki, muzea, a także obejrzeć katalog samochodów lub przeszukać bazę danych o firmach, jednym słowem mówiąc możemy dowiedzieć się wszystkiego o wszystkim.
Najpopularniejsze wyszukiwarki internetowe:
www.onet.pl, www.wp.pl, www.interia.pl, www.altawista.com, www.hotbot.com, www.chip.pl, www.google.pl
c)usługi umożliwiające zdalną pracę na innym komputerze (telnet)

Telnet
W praktyce usługa już nie używana. Umożliwiała podłączenie się do innego komputera i pracę na nim.
Aby połączyć się z Internetem wystarczy dowolny komputer klasy PC, oprogramowanie, modem z homologacją i aparat telefoniczny. Już teraz można powiedzieć, że popularność Internetu nie zawęzi się do grona komputerowych zapaleńców, to wciąż młoda dziedzina i trudno powiedzieć czym zaskoczy nas w przyszłości. Telekomunikacja Polska szacuje, że w roku 2000 z Internetu będzie korzystało od 2 do 3 milionów Polaków, a na przełomie wieku w skali światowej około miliarda.

KABLE

W systemach telekomunikacyjnych kable stanowią odpowiednik systemu nerwowego i są konieczne dla opłacalnej transmisji nieustannie rosnącej ilości informacji na coraz większe odległości.
Kable Miedziane
W celu przesłania jakichkolwiek informacji potrzebne jest medium transmisyjne, które może to zrobić. Najczęściej wykorzystywanym medium przesyłu danych są kable miedziane. Pierwsze kable telekomunikacyjne miały papierowo-powietrzną izolację żył miedzianych a powłokę zewnętrzną wykonaną z ołowiu. Obecnie nie produkowane, chociaż jeszcze często używane. Współczesnym środkiem izolacji żył przewodzących w kablu jest polichlorek winylu (PCW) lub polietylen. Tradycyjnym medium transmisyjnym jest w telekomunikacji kabel z parami przewodów miedzianych. W dzisiejszych sieciach dostępu używane są kable zawierające ponad 2000 par przewodów skręcanych. Oprócz tego podstawowego zastosowania kable miedziane sprawdziły się w szeregu innych m.in. jako kable instalacyjne, kable do transmisji danych, do systemów komutacyjnych, kable antenowe. W kablach miedzianych wyróżnia się łącza niesymetryczne (co najmniej 1 biegun połączony z ziemią) i symetryczne, w których prąd w obu przewodach powinien być taki sam, lecz płynący w przeciwnych kierunkach (symetrycznie). Tak skręcona para symetryczna daje dużą odporność na zakłócenia zewnętrzne. Każda para przewodów jest skręcona i stąd pochodzi nazwa - kabel typu skrętka parowa. Dotychczas używane kable koncentryczne są wypierane przez bardziej nowoczesne, składające się z 4 par przewodów miedzianych - skręcane w układzie pęczkowym - czwórki kablowe - dla których podstawową wiązką są cztery skręcone przewody.. Kabel taki umożliwia pięciokrotnie, a nawet dwudziestoparokrotnie szybszą transmisję danych. Podstawowa skrętka pozwala na przesłanie w ciągu jednej sekundy 100 mln bitów danych, zaś przy zaawansowanych i skomplikowanych technikach kodowania sygnału może to być nawet 10 razy więcej. Jest to równoważne przesłaniu w ciągu 1 sekundy 7 tys. stron maszynopisu! Mimo że to liczba niemal astronomiczna, coraz częściej ta prędkość przestaje już wystarczać. e Miedziane

Rodzaje kabli miedzianych
Skrętka nieekranowana UTP - (Unshielded Twisted Pair) Kabel wykonany ze skręconych, nieekranowanych przewodów tworzących linę symetryczną zrównoważoną . Skręcanie przewodów ze splotem 1 zwój na 16-10 cm chroni transmisję przed oddziaływaniem (interferencją) otoczenia. Skrętkę powszechnie stosuje się w sieciach telefonicznych i komputerowych. Przy przesyłaniu sygnałów cyfrowych za pomocą skrętki UTP uzyskuje się przepływności do 100 Mb/s (kategoria 5), a takie1000 Mb/s w najnowszej technologii Gigabit Ethernet.
Skrętka foliowana FTP - (Foiled Twisted Pair) jest skrętką ekranowaną za pomocą folii z przewodem uziemiającym. Przeznaczona główne do budowy sieci komputerowych (Ethernet, Token Ring) o długości nawet kilku kilometrów. Stosowana również na krótszych dystansach w sieciach standardu Gigabit Etrernet (1 Gb/s) z wykorzystaniem wszystkich czterech par okablowania miedzianego piątej kategorii.
Skrętka ekranowana STP - (Shielded Twisted Pair) Posiada ekran wykonany w postaci oplotu i zewnętrznej koszulki ochronnej. Znaczenie skrętki ekranowanej wzrasta w świetle nowych norm europejskich EMC w zakresie emisji EMI (ElectroMagnetic Interference) - ograniczających promieniowanie dla nieekranowanych kabli telekomunikacyjnych przy wyższych częstotliwościach pracy. Skrętka STP jest stosowana powszechnie tylko w niektórych krajach jako alternatywa skrętki nieekranowanej.
Kabel współosiowy (koncentryczny) - Stosowany początkowo głównie do tworzenia niewielkich sieci LAN, jest teraz najczęściej stosowanym medium transmisyjnym w sieciach hybrydowych, związanych ze środowiskiem telewizji kablowej CATV. Składa się z dwóch przewodów koncentrycznie umieszczonych jeden wewnątrz drugiego, co zapewnia większą odporność na zakłócenia - a co za tym idzie - zapewniają lepszą jakość transmisji.
Powszechnie stasuje się dwa rodzaje kabli koncentrycznych: kable o oporności falowej 50 i 75 omów. Kable 75-omowe o przekrojach 4 - 6 mm są wykorzystywane zarówno w transmisji cyfrowej, jak i analogowej, a sygnały można przesyłać z przepływnością do 600Mb/s (pasmo 200 MHz użytkowane w telewizji kablowej CATV). Parametry transmisyjne kabli koncentrycznych pozwalają na ogól uzyskiwać wyższe przepływności, lecz o mniejszym zasięgu niż za pomocy skrętek.

Światłowody

Już w XIX wieku kable stały się częścią codziennego życia człowieka. Z początku zwykłe, cienkie miedziane, z czasem coraz bardziej udoskonalane, potem przyjęły postać satelity, aby bezprzewodowo łączyć ze sobą krańce świata. Aż trudno uwierzyć, że to już wszystko staje się powoli „historią przewodu”. Dziś zwykłe listy, wiadomości i obrazy wędrują jako wiązka światła w kablach światłowodowych. Możnaby się zastanawiać: co by było gdyby Edison nie zapalił pierwszej żarówki? Kiedy obecnie światłowody są w stanie przekazywać przez Atlantyk 30 milionów rozmów na sekundę.
Wszystko miało swój początek 1850 roku, wtedy to grupa Brytyjskich inżynierów wykonała kabel z drutu miedzianego izolowany gutaperką i położyli go na dnie Kanału Angielskiego. Z pozoru nowatorskie doświadczenie spełniło swój cel. Kilka lat później po wielu przeróbkach i udoskonaleniach położono następny kabel. Tym razem powędrował on dnem Atlantyku. Wtedy to też na ukoronowanie osiągnięcia przeprowadzono oficjalną publiczną próbę: 16 sierpnia 1858 roku Królowa Wiktoria wysłała do prezydenta Stanów Zjednoczonych – Jamesa Buchanana - stuwyrazową wiadomość. Depesza ta dotarła do adresata, chociaż w dwóch turach (część „doszła” dopiero następnego dnia). Pełny sukces. Największe osiągnięcie tamtejszej techniki, już wtedy wiadomo było, że tamto wydarzenie będzie miało wpływ na losy ludzkości. Zaczęto układać nowe kable coraz dłuższe i mogące szybciej przesyłać informacje. Po kilkunastu latach w ciągu jednej sekundy mknęło 20 razy więcej słów.
Przesyłanie informacji za pomocą kabla było wcześniejszym osiągnięciem niż informacje telefoniczne czy te przekazywane drogą radiową. Możliwości techniczne szły do przodu, zaczęto coraz bardziej „szlifować” technikę przekazywania informacji przewodami. W połowie XX wieku samo przekazywanie wyrazów nie wystarczało, mimo iż teraz zajmowało to tylko kilkadziesiąt sekund, a dojście do kilku lub nawet do ułamków sekund, było tylko kwestią czasu. Zaczęto eksperymentować z przesyłaniem plików obrazkowych, filmowych i muzycznych. Stało się to powszechną rozrywką.
Dzisiejszy światłowód jest kablem grubości ołówka, wchodzącym w specjalny plastikowy przewód, który chroni go przed uszkodzeniami zewnętrznymi oraz działaniem takich czynników jak np.: woda, silne powiewy wiatru, nadmierne nasłonecznienie. Kabel taki zawiera w sobie dziesiątki włókien szklanych, każde cieńsze od ludzkiego włosa. Nazywane są ciemnymi włóknami, dopóki nie zaczną przekazywać impulsów światła laserowego, za pomocą których przenoszone są zapisy wideo, sygnały komputerowe i wszystko, co można zapisać za pomocą bitów.
Korzystając z Internetu można łatwo zauważyć jak wielką przepustowość mają takie włókienka – liczy się ona w terabitach, które odpowiadają bilionom bitów. Naturalnie, światłowody nie są jedyna możliwością jaką stworzono ku komunikacji ze światem. Istnieją inne sposoby, które możnaby nazwać ich gorszymi odmianami lub w dobie dzisiejszego rozwoju po prostu ich poprzednikami. Zaliczają się do nich modemy (zarówno te kablowe jak i te, korzystające ze złącza telefonicznego), satelity i system linii DSL-ISDN. Dlaczego więc to światłowody wiodą prymat? Chodzi o szybkość, jakość i oczywiście pieniądze. Rozłożenie kilkuset kabli łączących kilka krajów ze sobą jest znacznie tańsze niż zestawienie kilku milionów modemów ze sobą, jakość informacji przekazywanych przez światłowód (jako linii stałej, a nie połączonych ze sobą części) stoi na wysokim poziomie. Najważniejsza jest jednak prędkość; w przeciągu 3,5 godziny jest on w stanie przetworzyć 10 240 kilobitów wiadomości w różnej formie (filmy, obrazy, formaty multimedialne...), co daje mu miażdżącą przewagę nad zwykłym modemem kablowym, który potrzebuje na to 365 godzin. W końcu jak sama nazwa wskazuje – informacje w kablach światłowodowych biegną z prędkością zbliżoną do prędkości światła, czyli niemalże 300 000 km/s .
Dzięki takiej szybkości przekazywania danych można było stworzyć nowy świat – wirtualną rzeczywistość zamykająca się w jednym słowie: Internet...

Nowy typ światłowodów - Alcatel opracował nowy typ światłowodu wielomodowego - GIGAlite, który pozwala na przesyłanie w sieciach LAN danych z szybkością 1 Gbit/s na odległość 550 metrów. Obecnie obowiązujący standard sieci Ethernet przewiduje obsługę sieci o długości nie przekraczającej 275 metrów, co w wielu wypadkach jest niewystarczające dla współczesnych rozwiązań sieciowych. Światłowody GIGAlite zostały zaprojektowane tak, aby w pełni zachować kompatybilność z dotychczas stosowanymi rozwiązaniami. Mogą być z łatwością zintegrowane z istniejącymi sieciami, a ich instalacja nie wymaga dodatkowego szkolenia ani nowych umiejętności.


Światłowody wdmuchiwane-Technologia światłowodów wdmuchiwanych polega na tym, że instaluje się puste rurki plastykowe, których koszt jest porównywalny z ceną najtańszych kabli miedzianych typu skrętka i stanowi ok. 10 proc. kosztu kabla światłowodowego. Przy odległościach większych konieczne będzie zastosowanie światłowodu jednomodowego. Na odległościach przekraczających 300 m można zainstalować rurki i wdmuchnąć do nich włókna wielomodowe, które mogą być wykorzystane do transmisji w obecnych technologiach np. Fast Ethernet. W momencie kiedy zostanie ustalony standard Gigabit Etherent i użytkownik podejmie decyzję o wykorzystaniu tej technologii, będzie można bardzo łatwo zastąpić włókna wielomodowe jednomodowymi bez otwierania koryt, sufitów, bez dostawania się do studzienek kanalizacyjnych, bez przeszkadzania innym pracownikom w biurze. W przypadku awarii zwykłych światłowodów często najbardziej ekonomiczne okazuje się położenie nowego światłowodu, a w technologii światłowodów wdmuchiwanych wystarczy znaleźć miejsce uszkodzenia, dosztukować kawałek rurki (służą do tego specjalne złączki pneumatyczne) i na całym odcinku można ponownie wdmuchnąć włókna światłowodowe. Daje to ogromne oszczędności czasowe i finansowe.
Światłowód a miedź-Pojawia się oczywiście pytanie, kiedy warto stosować światłowód zamiast miedzi. Poważnie myśleć o instalacji światłowodów należy wtedy, gdy występuje zapotrzebowanie na szybkości transmisji przekraczające 100 mbps. Mimo że mówi się o wykorzystaniu skrętki do transmisji w technologiach Gigabit Ethernet i ATM 622, to światłowody będą w przypadku tych technologii efektywniejsze. Przewiduje się, że urządzenia światłowodowe Gigabit Ethernet będą tańsze lub w tej samej cenie co ich odpowiedniki dla miedzi. W przypadku ATM 622 organizacja ATM Forum nie przewiduje standardu dla miedzi. Warto natomiast podkreślić, że dla odległości większych niż 100 m jedynym rozwiązaniem są światłowody. Kable miedziane dają dużą szybkość transmisji tylko do tej odlełgości, dalej tłumienie jest zbyt duże.
Pod względem trudności technicznych czy oprzyrządowania położenie kabla światłowodowego jest równie trudne (czy też: równie łatwe) jak kabla miedzianego. Założenie złączy wymaga dłuższego czasu (dwu-, trzykrotnie) i innych urządzeń, których koszt wraz z miernikiem jest porównywalny w obu technologiach. Głównymi dostawcami kabli importowanych są Lucent Technologies i MOD-TAP. Udział importu w polskim rynku światłowodów (i rynku okablowania strukturalnego) maleje.
BEZPRZEWODOWE PRZESYŁANIE DANYCH

TELEWIZJA SATELITARNA
Wszystkie satelity telewizyjne bezpośredniego odbioru są umieszczone na stacjonarnej orbicie równikowej, na pozycjach przydzielonych im przez organizację międzynarodową, zrzeszającą nadających programy. Na naszym kontynencie jest nią EUROSAT. Pozycje satelitów stacjonarnych określa się w stopniach długości geograficznej wschodniej (E) i zachodniej (W). Telesatelity są wyposażone, w celu precyzyjnej korekty położenia, w małe silniki rakietowe, zdalnie sterowane z Ziemi.
Aparatura nadawczo-odbiorcza satelity telewizyjnego obejmuje kilka (najczęściej dziesięć) przekaźników przesyłanych z Ziemi sygnałów, odrębnych dla każdego z kanałów. Urządzenia retransmitujące programy nazywa się transponderami. Są one zasilane z baterii słonecznych, umieszczonych na charakterystycznych, zwróconych w stronę Słońca, skrzydłach. Podczas przejścia satelity przez cień Ziemi, co trwa około jednej godziny, aparatura jest zasilana z akumulatorów. Gwarantuje to w zasadzie pracę całodobową, choć w okresach cyklicznie powtarzających się „zaćmień” zdarza się zaobserwować niewielkie nieraz zmiany parametrów emitowanego sygnału. Są one spowodowane drastycznymi spadkami temperatury wewnątrz satelity.

Satelity, nadające programy do powszechnego odbioru, są tak skonstruowane, że mogą w tym samym czasie wysyłać odrębne dla różnych krajów wiązki fal. Anteny kierunkowe transponderów są w takim przypadku wycelowane na terytoria krajów lub stref językowych (angielska, francuska, niemiecka, włoska, hiszpańska itd.), korzystających z adresowanych do nich emisji. Zasięgi są jednak znacznie większe niż „napromieniowana” teoretycznie powierzchnia globu – w praktyce zatem widzowie, zamieszkujący tak małą część świata jak Europa, mogą odbierać dowolnie wybrane kanały.

Telewizyjne programy satelitarne dla Europy są nadawane na falach centymetrowych, w zakresie częstotliwości od 10,95 GHz (gigaherców) do 11,70 GHz – zwanym Ku-Band. Sygnałów tych nie można odbierać bezpośrednio za pomocą zwykłych odbiorników telewizyjnych, ani też używając anten stosowanych przy odbiorze fal metrowych i decymetrowych, na których pracują naziemne stacje rozsiewacze. Niezbędne jest tutaj zastosowanie specjalnej instalacji, składającej się z trzech elementów:
a) anteny parabolicznej, charakteryzującej się zdolnością odbierania skupionej wiązki fal o rozbieżności jednego stopnia kątowego;
b) konwertera wysokiej częstotliwości, umieszczonego tuż przy antenie zewnętrznej, odpornego na temperatury od -40˚C do +55˚C, przemieniającego odbierane z orbity sygnały przez zmniejszenie ich częstotliwości;
c) odbiornika telewizji satelitarnej, pracującego w zakresie 950-1750 MHz (megaherców), w którym mieści się 79 kanałów (numerowanych od 01 do 79), przekazującego odebrane programy na wejście zwykłego kolorowego telewizora systemu PAL/SECAM.

Odbiorniki telewizji satelitarnej mają dwa wyjścia sygnału. Dzięki temu można przyłączyć je do specjalnych gniazd audio-video (A/V), albo też – jeśli telewizor ich nie ma – do wejścia antenowego telewizora. W tym drugim przypadku sygnały są do odbiornika przekazywane na pomocniczej częstotliwości radiowej RF (ang. Radio frequency), do której można już dostroić każdy odbiornik z zakresem UHF (kanały 21-60).
Satelity telekomunikacyjne zajmują stałe miejsca na orbicie równikowej. Parabola anteny nadawczej musi być zatem precyzyjnie skierowana na punkt nieboskłonu, odpowiadający pozycji danego satelity. Jeśli odbiorcę interesują programy nadawane przez kilka satelitów, to musi tak skonstruować antenę, aby było możliwe jej przestawianie ręczne (co jest dość kłopotliwe) lub automatyczne, za pomocą zdalnie sterowanego urządzenia z silnikiem serwo. Sterownik zdalny anteny nosi angielską nazwę antenna positioner and actuator.

Antena odbiorcza telewizji satelitarnej składa się z dwóch elementów – biernego i czynnego. Elementem biernym jest paraboliczna metalizowana czasza, będąca wklęsłym lustrem. Fale radiowe, emitowane przez transponder satelity, odbijają się od tego lustra i skupiają w ognisku reflektora. Czasza anteny powinna być odporna na wpływy atmosferyczne i sztywna, przy czym sposób jej zamocowania na podstawie powinien wykluczać uszkodzenie spowodowane np. silnymi porywami wiatry. Oczywiście, najlepiej „spisują się” anteny umieszczone na wolnej przestrzeni, np. na dachu, balkonie lub w ogrodzie. W wielu jednak przypadkach możliwy jest także odbiór silniejszych sygnałów przez anteny znajdujące się pod dachem.

Średnica czaszy odbiorczej decyduje o czułości anteny. Im większa antena, tym silniejszy odbiór. Do odbioru indywidualnego na terenie Polski stosuje się najczęściej anteny o średnicach od 90 do 180 centymetrów. W zachodniej części kraju mogą być używane mniejsze czasze antenowe (150cm), we wschodniej natomiast – większe (180cm). Jedynie do wyłącznego odbioru satelity ASTRA można stosować najmniejsze anteny, odpowiednio o średnicy 90 i 120 centymetrów. W przyszłości – w miarę wprowadzania na orbitę satelitów następnych generacji o podwyższonej mocy – będzie możliwe korzystanie z jeszcze mniejszych anten, o średnicach od 50 do 80 centymetrów.
Instalując anteny, zwłaszcza te o większych średnicach, należy zwrócić baczną uwagę na solidne umocowanie stojaka. Sam ciężar anteny nie ma tu szczególnego znaczenia. Typowe zestawy antenowe nie ważą bowiem więcej niż 50 kg – ważna jest natomiast ich odporność na podmuchy wiatru. Przy częstych wiatrach, wiejących z prędkością 30m/s, czasze o średnicy 180 cm mogą być narażone na nacisk boczny dochodzący do 250kg.

Antena powinna znajdować się w miejscu zapewniającym bezpośrednią widoczność satelity – ponad naturalnymi przeszkodami, jakimi mogą być drzewa i budowle. Powinien być „widoczny” cały wycinek łuku, na którym są rozmieszczone satelity telewizyjne. Sektor ten jest w Polsce ograniczony azymutem od 130˚ do 240˚. Elewacja, tzn. kąt między horyzontem i kierunkiem zwróconej na satelitę anteny, mieści się w granicach od 14˚ na północy kraju do 33˚ na południu.
Elementem czynnym anteny jest konwerter, sprzężony z promiennikiem umieszczonym w ognisku reflektora. Konstrukcja konwertera jest wyjątkowo precyzyjna i delikatna; nie toleruje ingerencji we wnętrze tego małego, lecz najważniejszego w zestawie, urządzenia. Próby otwarcia obudowy (przez amatora) kończą się zniszczeniem aparatury.

Fale radiowe, emitowane przez transpondery satelitów telewizyjnych, są spolaryzowane poziomo lub pionowo, względni kołowo – prawo- i lewoskrętnie. Z tego względu przy promienniku anteny odbiorczej umieszcza się odpowiedni polaryzator. Obrotowy polaryzator, ze zdalnym sterowaniem, umożliwia odbiór programów o różnych polaryzacjach fal. W przypadku korzystania wyłącznie z sygnałów i jednej polaryzacji wystarczy zastosowanie prostego stałego polaryzatora pojedynczego. Urządzenie to łączy promiennik anteny z konwerterem.
Konwerter zawiera przedwzmacniacz wielkiej częstotliwości (wzmacniacz parametryczny) oraz pierwszy stopień przemiany częstotliwości. Lokalny generator heterodynowy i pierwszy mieszacz przenoszą nadawane przez satelitę sygnały na zakres niższych częstotliwości, przechodząc z pasma gigahercowego na megahercowe. Uzyskana w ten sposób pierwsza częstotliwość pośrednia jest kierowana, po wstępnym wzmocnieniu, do wejścia odbiornika telewizji satelitarnej (patrz uproszczony schemat blokowy rys. 2.3).

Redukcja odbieranych przez antenę częstotliwości z 11-12 GHz na 950-1750MHz ułatwia późniejszą obróbkę sygnałów, które są z satelity przesyłane w modulacji częstotliwościowej. Dopiero w odbiorniku TV SAT przyjmują one właściwą dla odtwarzania formę amplitudową.
Konwertery różnią się od siebie zakresami częstotliwości wejściowych i współczynnikiem szumów. Zakres częstotliwości dla Europy wynosi, jak wspomniano wcześniej od 10,95 do 11,75GHz. Jedynie w przypadku odbioru satelitów TDF i TELEX konieczny jest zakres od 11,75 do 12,5GHz. Inne konwertery, przeznaczone do odbioru w innych strefach geograficznych, są na naszym kontynencie nieprzydatne.
Wzmocnienie konwerterów może wynosić od 50 do 65 dB. Lepsze są, rzecz jasna, urządzenia o większym wzmocnieniu. Jakość odbioru słabych sygnałów telewizji satelitarnej jest także uwarunkowana przez współczynnik szumów własnych. Dla konwerterów wyższej klasy (i najdroższych) wynosi on 0,9dB – co umożliwia stosowanie anten o małej średnicy. W tańszej aparaturze współczynnik szumów może wzrastać do 2,5dB. Dla typowych anten, o średnicach od 150 do 180 cm, można używać konwerterów ze współczynnikiem szumów 1,8dB. Mniejsze czasze odbiorcze (120 i 90 cm) wymagają niskoszumowych konwerterów o współczynniku 1,5 czy nawet 1,2dB. Jedynie odbiór z satelity ASTRA bywa zadawalający przy poziomie szumów rzędu 2dB.

Antenę łączy się z odbiornikiem satelitarnym przede wszystkim za pomocą specjalnego kabla współosiowego o typowej wprawdzie oporności od 50 do 75 omów, jednakże przenoszącego częstotliwości do 2GHz i wyróżniającego się tłumieniem nie wyższym niż 20dB. Prowadzi się go najkrótszą drogą – od konwertera do wejścia antenowego. W przypadku pojedynczego polaryzatora połączenie to w zupełności wystarczy. Polaryzatory obrotowe wymagają jednak dodatkowego połączenia z odbiornikiem trzema elastycznym przewodami elektrycznymi. Silnik sterownika anteny musi być – zależnie od konstrukcji fabrycznej – zasilany za pośrednictwem dwóch lub czterech przewodów takiego samego typu, jakie wykorzystuje się w domowych instalacjach elektrycznych.

Doprowadzone z konwertera sygnały zostają w tunerze odbiornika zmieszane z częstotliwością drugiej heterodyny, co powoduje przesunięcie ich do pasma 140MHz (patrz schemat blokowy tunera rys. 2.4). Są one jednak nadal modulowane częstotliwościowo, a następnie przechodzą przez ogranicznik oraz demodulator FM (uzupełnione tzw. blokiem deemfazy), skąd są kierowane na wyjście w formie sygnałów małej częstotliwości wizji i fonii, możliwych do przyjęcia przez telewizory.

Strojenie tunera odbywa się przez zmianę częstotliwości drugiej heterodyny. Pomijając charakterystyczną dla telewizji satelitarnej przemianę sygnału wizji z modulacji częstotliwościowej, konstrukcja tunera TV SAT w niczym nie odbiega od budowy klasycznych tunerów telewizyjnych.
Na rynku sprzętu elektronicznego znajduje się wiele typów odbiorników telewizji satelitarnej, różniących się nie tyle konstrukcją, ile stopniem automatyzacji obsługi. Najprostsze z nich można regulować jedynie ręcznie. Na ich frontowej ściance znajdują się pokrętła dostrojenia wizji, fonii i regulacji polaryzatora. W konstrukcjach średniej klasy wbudowuje się także wskaźnik poziomu sygnału, przełącznik polaryzatora i przełącznik szerokości pasma fonii.

Najdroższe odbiorniki wysokiej klasy mają cyfrowy syntetyzer częstotliwości, ułatwiający dostrajanie do kanału, oraz pamięć elektroniczną, w której można utrwalić optymalne dostrojenie odbiornika do kilkudziesięciu programów. Mają one zazwyczaj zdalne sterowanie podczerwienią.
W charakterystyce odbiornika najważniejszy jest zakres odbieranych częstotliwości. Należy pamiętać, że większość satelitów europejskich nadaje w paśmie 10,95-11,75 GHz (Ku-Band). Tylko nieliczne satelity pracują (najczęściej tylko na niektórych transponderach) w zakresie 11,75-12,5 GHz (C-Band). Znajomość właściwego zakresu jest niezbędna przy zakupie sprzętu.


TELEWIZJA

Telewizja to dział telekomunikacji zajmujący się nadawaniem, przesyłaniem oraz odtwarzaniem w miejscu odbioru scen ruchomych z natury lub obrazów uprzednio zarejestrowanych na taśmie magnetycznej.; łącznie z obrazem może być nadawany towarzyszący mu dźwięk.

Rozróżnia się:

telewizja programowa (przeznaczoną do nadawania dla szerokiego ogółu odbiorców specjalnie oprac. programów artystycznych., informacyjnych, szkoleniowych i in.),

telewizja użytkowa (przeznaczoną do zdalnej obserwacji zjawisk lub zdalnej kontroli różnych procesów w nauce, przemyśle, gospodarce itp., realizowaną w sieciach zamkniętych, najczęściej przewodowych. Telewizja programowa może być rozsiewcza (najczęstsza) lub przewodowa (kablowa), w której transmisja sygnałów odbieranych z nadajników ziemskich lub satelitarnych odbywa się całkowicie lub częściowo na drodze przewodowej.

Zależnie od rodzaju obrazu rozróżnia się:

telewizja monochromatyczna (czarno-białą), w której nadaje się informacje o przestrzennym rozkładzie luminancji obrazu
telewizja kolorowa, w której nadaje się i odtwarza również informacje o wszystkich cechach kolorymetrycznych obrazu (barwie). Istnieje również — b. rzadko stosowana do specjalnych celów
telewizja stereoskopowa (monochromatyczna lub kolorowa), w której wrażenie głębi odtwarzanego obrazu uzyskuje się przez wykorzystanie właściwości widzenia dwuocznego .


W zależności od metody przesyłania informacji rozróżnia się :


telewizja analogowa, w której sygnał wizyjny jest ciągłą funkcją czasu i zależy od luminancji kolejno wybranych elementów obrazu
telewizja cyfrowa, w której sygnał wizyjny jest określany jedynie w wybranych chwilach i stanowi kombinację 2 stanów log.: „jeden” i „zero”.


Ze względu na jakość odtwarzanego obrazu rozróżnia się:


telewizja standardowa (konwencjonalną), o jakości stosowanej powszechnie w telewizji programowej i stosunku boków obrazu 4:3,

podwyższonej jakości, o stosunku boków 16:9,

b. dużej rozdzielczości obrazu, o 2-krotnie większej liczbie linii wybierania obrazu i stosunku boków obrazu 16:9

małej rozdzielczości obrazu, o mniejszej liczbie linii wybierania (np. telewizja użytkowa).



Podstawowe procesy techniki telewizyjnej. to:

analiza obrazu, tj. przekształcenie w ustalonej kolejności rozkładu informacji opt. zawartych w nadawanym obrazie na odpowiadające im sygnały elektr. (za pomocą lampy analizującej lub przetwornika CCD umieszczonych w kamerze telewizyjnej);

synteza, czyli odtwarzanie obrazu, tj. przekształcanie sygnałów elektron., uzyskiwanych w wyniku analizy nadawanego obrazu, na obraz widzialny, stanowiący reprodukcję tego obrazu, za pomocą kineskopu lub ekranu ciekłokrystalicznego umieszczonego w odbiorniku telew.; synchronizacja procesów analizy i syntezy obrazu, tj. uzyskiwanie współbieżności wybierania elementów obrazu (podczas ich analizy) i odtwarzania elementów obrazu (podczas syntezy obrazu), oraz uzyskiwanie prawidłowości odtwarzania kolorów w telewizji kolorowej. W telewizji kolorowej obraz opt. jest rozdzielony na 3 odrębne obrazy w kolorach podstawowych (czerwonym, zielonym i niebieskim), z których każdy jest niezależnie analizowany. W konsekwencji otrzymuje się 3 sygnały wizyjne kolorów podstawowych, które — odpowiednio sumowane — dają sygnał luminancji (w telewizji czarno-białej sygnał luminancji jest jedynym sygnałem obrazu) oraz 2 sygnały różnicowe kolorowości obrazu, tworzące sygnał chrominancji. Sygnały różnicowe kolorowości obrazu powstają przez odjęcie od sygnału wizyjnego koloru podstawowego sygnału wizyjnego luminancji; modulują one w odpowiedni sposób podnośną lub podnośne chrominancji (czyli przebieg nośnej o częstotliwości zawartej w pasmie sygnału wizyjnego przeznaczony do przekazywania informacji o kolorowości obrazu). W zależności od metody modulacji rozróżnia się różne systemy telewizji kolorowej. W eksploatowanych obecnie systemach telewizji analogowej całkowity sygnał wizyjny, składający się z sygnału obrazu (zawiera sygnały luminancji i chrominancji) oraz sygnału wygaszania i synchronizacji, moduluje w amplitudzie sygnał o częstotliwości nośnej wizji i jest przesyłany z częściowo tłumioną wstęgą boczną. Dźwięk towarzyszący obrazowi telew. jest przesyłany na częstotliwości nośnej dźwięku położonej powyżej częstotliwości nośnej wizji w odległości zależnej od przyjętego standardu telewizyjnego. Szerokość kanału zajmowanego przez emitowany sygnał telewizyjny zależy również od przyjętego standardu. W systemach telewizji cyfrowej cyfrowe sygnały wizyjne mogą być przesyłane z modulacją OFDM (ortogonalne zwielokrotnianie z podziałem częstotliwościowym). Wytwarzany w ośrodku studyjnym sygnał wizyjny jest następnie metodą analogową lub ostatnio cyfrową bądź przesyłany do innych ośrodków studyjnych (za pomocą linii kablowych współosiowych lub światłowodowych linii radiowych lub łączy satelitarnych), bądź rozsyłany do abonentów przez ziemskie stacje nadawcze (nadajniki telew.) lub stacje nadawcze umieszczone na satelitach geostacjonarnych (takich jak np. Eutelsat, Intersat, Astra, Kopernikus — telewizje satelitarne). Łącznie z sygnałem telew. mogą być przesyłane sygnały teletekstu (gazety telew.), które są odtwarzane w postaci stron tekstu lub napisów na obrazie na ekranach odbiorników telew. wyposażonych w odpowiedni dekoder. Ziemskie stacje nadawcze mają zwykle bezpośredni zasięg ok. kilkudziesięciu km, przy czym zależy on od mocy nadajnika i od wysokości, na której pracuje antena nadawcza; anteny nadawcze są umieszczane na b. wysokich budynkach (np. Empire State Building w Nowym Jorku — wys. z anteną 448 m) lub specjalnych wieżach telew. (CN w Toronto — wys. z anteną 555 m; Ostankino w Moskwie — 540 m); zwiększenie zasięgu realizuje się za pomocą stacji retransmisyjnych. Znacznie większy zasięg bezpośredni zapewniają stacje satelitarne, mimo stosunkowo niewielkiej mocy ich nadajników. Przy odbiorze sygnałów telewizji kolorowej w odbiorniku telew. odtwarza się sygnały wizyjne kolorów podstawowych lub sygnały różnicowe kolorowości obrazu (w tzw. dekoderze telewizji kolorowej); synteza obrazu kolorowego zachodzi najczęściej w kineskopie kolorowym odbiornika. Bezpośredni odbiór stacji satelitarnych wymaga specjalnej anteny i dodania na wejściu odbiornika tunera satelitarnego. Sygnały telew. odebrane z satelity za pomocą urządzeń odbioru zbiorowego są rozprowadzane do użytkowników za pośrednictwem sieci telewizji kablowej. W przypadku telewizji cyfrowej procesy analizy i syntezy obrazu są przeprowadzane metodą analogową. Wytworzony w kamerze telew. sygnał wizyjny jest zamieniany na jego odpowiednik cyfrowy. Zachodzą tu procesy próbkowania sygnału w określonych odstępach czasu, kwantowania i kodowania. Od przyjętej metody lub metod kodowania zależy prędkość bitowa sygnału cyfrowego. Po stronie odbiorczej następuje proces odwrotny, tzw. dekodowanie. Na ogół są kodowane sygnały składowe telewizji kolorowej, tj. sygnał luminancji i sygnały różnicowe kolorowości obrazu.
Pierwsze sygnały przesyłania obrazu powstały w 2 poł. XIX w., po odkryciu zjawiska fotoelektr.; przy analizie i syntezie obrazu wykorzystywano wówczas wirujące urządzenie mech., np. tarczę Nipkowa, a sam przekaz odbywał się przewodowo. Prace nad telewizją bezprzewodową podjęto w XX w.: jednocześnie prowadzono prace nad 2 systemami telewizji mechaniczno-optycznej (J.L. Baird, Ch.F. Jenkins, D. von Michaly) i całkowicie elektronowym (B. Rosing, A.A. Campbell-Swinton, V.K. Zworykin i inni). Pierwszą stację nadawczą uruchomiono 1929 w USA; 1935 w Berlinie zaczęła nadawać pierwsza całkowicie elektron. stacja telew.; 1936 w W. Brytanii rozpoczęto stałą emisję programu telew.; również w latach 30. prowadzono pierwsze próby laboratoryjne telewizji kolorowej. Szybki rozwój telewizji nastąpił po II wojnie świat.; programy telewizji kolorowej wprowadzono 1956 w USA, 1962 w Japonii, 1967 we Francji, RFN, W. Brytanii, ZSRR; 1962 wprowadzono do transmisji telew. sztuczne satelity (Telstar).
W Polsce eksperymentalną stację telew. uruchomiono w Warszawie; doświadczalną eksploatację telewizji czarno-białej rozpoczęto 1952, a 1956 wprowadzono ją do powszechnego użytku; eksploatację telewizji kolorowej w Polsce rozpoczęto 1970.




RADIOFONIA

Radiofonia to dział radiokomunikacji zajmujący się zorganizowanym rozpowszechnianiem programów dźwiękowych (fonicznych), obejmujących audycje informacyjne, rozrywkowe, dydaktyczne, reklamowe i in., przeznaczone dla słuchaczy posiadających odpowiednie radiowe urządzenia odbiorcze (radiowy odbiornik). Audycje przygotowane w rozgłośniach są nadawane (rozsiewczo) w przyznanych do tego celu zakresach fal (radiofonia długofalowa, radiofonia średniofalowa, radiofonia krótkofalowa, radiofonia ultrakrótkofalowa), albo przesyłane kablami do urządzeń abonenckich sieci zamkniętej. Jedna stacja radiowa o mocy rzędu 1 MW, pracująca na falach długich może zapewnić zadowalającą jakość odbioru na obszarze całej Polski; stacja pracująca na falach średnich o zbliżonych parametrach pokrywa tylko obszar kilku województw, a oprócz tego, warunki odbioru zmieniają się w ciągu doby. Znacznie większą dobową i sezonową zmienność warunków propagacji obserwuje się w zakresie krótkofalowym, jednak ze względu na zjawisko odbicia fal od jonosfery, przy odpowiednim dobraniu częstotliwości pracy i kąta promieniowania, można uzyskiwać zasięg kilkuset km przy mocach znacznie mniejszych niż w zakresie fal długich i średnich. Zasięg stacji pracujących na falach ultrakrótkich (UKF) jest praktycznie ograniczony do zasięgu bezpośredniej widoczności pomiędzy anteną odbiorczą i nadawczą, toteż dla pokrycia powierzchni Polski programami nadawanymi na UKF musi pracować kilkadziesiąt stacji retransmitujących te same programy. Pasmo fal ultrakrótkich ze względu na niski poziom zakłóceń występujących w tym pasmie jest przeznaczone dla sieci nadających programy wysokiej jakości, m.in. stereofoniczne. Dalsze podniesienie jakości, zwł. w dużych ośr. miejskich uzyskuje się w radiofonicznych sieciach kablowych; perspektywiczny wydaje się być system cyfrowej radiofonii naziemnej, opracowywany obecnie w wielu krajach.
Pierwsze próby przesyłania na odległość sygnałów fonicznych przeprowadzono na pocz. XX w. (np. doświadczalna transmisja z występów E. Carusa w Metropolitan Opera w Nowym Jorku). Szybki rozwój radiofonii rozpoczął się w latach 20. XX w.; 1922–33 wszystkie kraje eur. i USA rozpoczęły nadawanie regularnych programów radiofonicznych. Pierwsza doświadczalna stacja radiofoniczna w Polsce rozpoczęła pracę 1925, stała stacja Pol. Radia w Warszawie 1926. W latach 30. XX w. rozwinęła się, gł. w Europie, również radiofonia przewodowa wykorzystywana np. w fabrykach, szpitalach, szkołach.

CB-RADIO

Radio CB, radiowa łączność obywatelska, system amatorskiej radiokomunikacji wykorzystujący tzw. pasmo obywatelskie, w większości krajów pasmo 27 MHz (11 m), podzielone na 40 kanałów o szer. 10 kHz; w Polsce są to częstotliwości od 26,960 MHz do 27,400 MHz; warunkiem uzyskania licencji jest stosowanie zarejestrowanych i mających świadectwo homologacyjne radiotelefonów o maksymalnej mocy nadajnika 4 W. Stosowane mogą być radiotelefony przenośne, przewoźne (samochodowe) lub stacjonarne, pracujące z modulacją amplitudy (AM — najczęściej stosowana, lub SSB — modulacja jednowstęgowa) lub modulacją częstotliwości (FM); w zależności od warunków terenowych i poziomu zakłóceń można uzyskiwać łączność na odległość od kilku do kilkudziesięciu kilometrów; nawiązanie łączności polega na wywołaniu użytkownika CB-radia prowadzącego nasłuch na danym kanale; w łączności (rozmowie) może brać udział dwóch lub większa liczba rozmówców; zwyczajowo kanał 9 jest uważany za tzw. kanał ratunkowy i w wielu miastach policja i pogotowie ratunkowe prowadzą na nim stały nasłuch; CB-radio jest wykorzystywane najczęściej przez kierowców jako ruchomy środek łączności. Od 1947 CB-radio zaczęło rozwijać się w USA; w latach 60. trafiło do Europy; w Polsce objęte przepisami od 1986.

GSM

Zasada działania systemu GSM
Każda sieć GSM posiada jedną lub kilka central telefonicznych, które odgrywają rolę podstawowych węzłów sieci. Na rys.2 pokazano strukturę typowej sieci GSM, dla przypadku czterech central. Poszczególne centrale są połączone ze sobą międzymiastowymi łączami telefonicznymi o wysokiej przepustowości,
w sposób "każdy z każdym". Podobnie jak to ma miejsce w stałej sieci telefonicznej, podstawowym zadaniem każdej centrali telefonicznej pracującej w sieci GSM jest realizacja połączeń pomiędzy sygnałami pochodzącymi od różnych abonentów, zarówno z danej sieci GSM jak i z innych sieci telekomunikacyjnych.
Z każdą centralą GSM skojarzona jest komputerowa baza danych, tzw. rejestr stacji obcych. W rejestrach tych przechowywane są, aktualizowane na bieżąco, informacje
o abonentach GSM przebywających chwilowo na terenie danej centrali, ale zarejestrowanych na stałe w innej centrali sieci. Dotyczy to zarówno abonentów
z danej sieci GSM, ale z innego jej rejonu, jak i abonentów z innych sieci GSM, np. zagranicznych. Dzięki tym rejestrom możliwe jest prawidłowe realizowanie rozmów przychodzących do abonentów będących w podróży. Na rys. 3 pokazano typowy wygląd centrali GSM.
Oprócz połączeń wychodzących w stronę innych central sieci GSM, z każdej centrali GSM wychodzą promieniście połączenia o średniej przepustowości i średnim zasięgu w stronę tzw. sterowników stacji bazowych. Są to urządzenia pomocnicze koncentrujące ruch telefoniczny pomiędzy centralami sieci GSM a stacjami bazowymi zlokalizowanymi w poszczególnych komórkach sieci. Typowa centrala współpracuje
z kilkunastoma sterownikami stacji bazowych. Ze sterowników stacji bazowych połączenia rozchodzą się dalej do stacji bazowych sieci komórkowej, z których każda obsługuje pojedynczą komórkę sieci GSM. Istnieje wiele wersji wykonania urządzeń stacji bazowych, zarówno do zamontowania wewnątrz budynków jak i na zewnątrz. Przykładowe stacje bazowe pokazano na rys. 4.
Na rys.2 dla uproszczenia pokazano strukturę promienistą połączeń.
W praktyce, ze względów niezawodnościowych, zarówno połączenia pomiędzy centralami a sterownikami stacji bazowych jak i pomiędzy sterownikami a samymi stacjami bazowymi realizowane są często w strukturze pętli, dzięki czemu do każdego elementu sieci GSM istnieją dwie drogi połączeniowe z centralą sieci. W takiej sytuacji, w przypadku przerwania jednego z łączy stałych sieć GSM może nadal działać bez zakłóceń.
W typowej sieci GSM znajduje się jedno wspólne centrum zarządzania siecią, które korzysta z dwóch sprzężonych z nią baz danych. Jedną z nich jest tzw. rejestr stacji własnych, zawierający wszystkie podstawowe informacje o poszczególnych abonentach zarejestrowanych w danej sieci GSM. W rejestrze tym wpisane są m.in. kategoria abonenta, jego uprawnienia do korzystania z usług dodatkowych, informacje pozwalające na jego identyfikację itp. Informacje tego typu w zasadzie wpisywane są jednokrotnie, podczas pierwszego zgłoszenia abonenta do sieci GSM, niekiedy tylko są one modyfikowane w późniejszym okresie. Oprócz tego, w rejestrze stacji własnych przechowywana jest także modyfikowana na bieżąco przybliżona informacja
o miejscu pobytu abonenta. Może być to miejsce na obszarze danej sieci lub w innym kraju, czasem na innym kontynencie. Dzięki tej informacji możliwe jest prawidłowe realizowanie połączeń do abonenta znajdującego się poza obszarem swojej macierzystej centrali GSM.
Drugim rejestrem, z którego korzysta centrum zarządzania siecią GSM jest tzw. rejestr identyfikacji terminali sprzętowych. Jest to komputerowa baza danych, w której znajdują się identyfikatory terminali GSM skradzionych lub uszkodzonych. Operator sieci GSM może w ten sposób ograniczyć skutki kradzieży terminali, może on także np. nie dopuścić do stosowania terminali niektórych producentów z uwagi na nieposiadanie przez nich homologacji.
Z centrum zarządzania siecią GSM współpracuje ściśle tzw. centrum identyfikacji. Jest to bardzo pilnie strzeżony system komputerowy, w którym przechowywane są hasła identyfikacyjne umożliwiające podjęcie decyzji, czy terminal żądający dostępu do sieci na koszt abonenta A posiada oryginalną kartę SIM wydaną abonentowi A. Cechą charakterystyczną procedur identyfikacyjnych w standardzie GSM jest to, że hasła identyfikacyjne abonentów nie są nigdy przesyłane do innych modułów sieci GSM. Wykorzystywane są one wy łącznie jako parametr dwóch identycznych procedur kryptograficznych wykonywanych równocześnie w centrum identyfikacji oraz w terminalu abonenta A, a jedynie wyniki obu tych procedur przesyłane są w sieci w celu ich porównania. W ten sposób minimalizuje się prawdopodobieństwo nadużyć w systemie.
Pokazana na rys. 2 ogólna struktura sieci GSM pozostaje w zasadzie niezmieniona podczas całego okresu działania sieci, choć zmieniają się jej parametry. Wraz ze wzrostem liczby abonentów sieci dodawane są dodatkowe centrale, sterowniki stacji bazowych i stacje bazowe. To z kolei pociąga za sobą modyfikacje połączeń pomiędzy poszczególnymi elementami sieci, zarówno jeśli chodzi o ich konfigurację jak i przepustowość. Operatorzy stopniowo wprowadzają nowe usługi, co wymaga cyklicznej modyfikacji urządzeń, najczęściej w zakresie oprogramowania,
a niekiedy także konfiguracji sprzętowej.
Elementy pokazane na rys.2 nazywane są łącznie infrastrukturą stałą sieci GSM. Nakłady finansowe związane z projektowaniem i testowaniem coraz to nowszych wersji urządzeń infrastruktury sieci GSM są tak wielkie, że na świecie jest tylko kilku producentów urządzeń infrastruktury GSM, wśród nich m.in. europejskie firmy: Alcatel, Ericsson, Nokia i Siemens, a z firm amerykańskich: Lucent, Motorola
i Nortel. Liczba producentów terminali GSM jest znacznie większa.

Rys. 2. Struktura typowej sieci GSM
Projektanci standardu GSM mieli zamiar tak zdefiniować styki pomiędzy poszczególnymi urządzeniami infrastruktury sieci GSM aby możliwa była współpraca w jednej sieci urządzeń pochodzących od różnych producentów. Niestety, zamiar ten nie w pełni się powiódł, gdyż znajdujące się w standardzie opisy poszczególnych styków okazały się niekompletne. Tak więc, aby możliwa była bezproblemowa współpraca urządzeń pochodzących od różnych dostawców konieczne jest żmudne, kosztowne i czasochłonne usuwanie przez operatorów szeregu rozbieżności. Z drugiej strony, wykorzystywanie przez operatora urządzeń tylko jednego dostawcy stawia go w niekorzystnej pozycji podczas negocjowania warunków cenowych i terminowych kolejnych dostaw sprzętu. Jednym z kompromisowych rozwiązań stosowanych przez niektórych operatorów sieci GSM, m.in. takie w Polsce, jest podział obszaru działania sieci na dwie części i wykorzystywanie w każdej z nich sprzętu tylko jednego dostawcy.
Rys. 3.

Rys. 4.

Kodowanie przekazywanej informacji w systemie GSM
Wszyscy operatorzy systemów cyfrowej telefonii komórkowej GSM (zarówno 900 MHz jak i 1800 MHz) w opisach swoich usług (a nie rzadko i w reklamach) deklarują całkowitą poufność przesyłanych za ich pośrednictwem informacji, i to zarówno zwykłych rozmów telefonicznych jak i transmisji danych, czy też faksów lub SMS-ów Od czasu do czasu pojawiają się pytania, czy ta deklaracja jest w pełni prawdziwa. Niektórzy obawiają się, czy prowadzone przez nich rozmowy mogą być podsłuchiwane przez tak zwane "osoby trzecie". Poniżej spróbujemy odpowiedzieć na ich pytania, jednocześnie przybliżając Czytelnikom strukturę transmisji informacji pomiędzy użytkownikiem telefonu komórkowego (GSM), a dowolnym abonentem.
W przemijającym już okresie radiowej łączności bezprzewodowej opartej na analogowej obróbce i transmisji sygnału (modulacja amplitudy lub częstotliwości), problem, oczywiście od strony technicznej, podsłuchiwania przekazywanej informacji, praktycznie nie istniał. Wystarczyło mieć dostęp do odpowiedniej aparatury pomiarowej, takiej jak analizator widma, lub posiadać pewną dozę wiedzy elektronicznej i środki, aby zbudować sobie dowolny odbiornik, a świat eteru był w zasięgu ręki. Oczywiście, i w czasach "analogu" stosowano specjalne metody kodowania czy też szyfrowania przekazywanej informacji za pośrednictwem fal radiowych, lecz były to głównie techniki stosowane przez służby specjalne lub dyplomatyczne.
Rozwój technik cyfrowych pozwolił na stosowanie coraz to bardziej wysublimowanych sposobów utajniania informacji. Praktycznie rzecz biorąc rozwój dziedziny utajniania transmisji stymulowany był przez służby wojskowe, dla których to poufność informacji była (i jest) dziedziną priorytetową. To uczeni pracujący na rzecz rozwoju łączności specjalnej już dosyć dawno temu wynaleźli techniki, utrudniające zapoznanie się osób niepowołanych z treścią przekazywanej informacji.
Z biegiem czasu oferowane systemy ruchomej łączności bezprzewodowej, takie jak CB Radio (pasmo "obywatelskie" .27 MHz dostępne dla wszystkich), systemy dostępowe, systemy trunkingowe oraz telefonia komórkowa systemu analogowego (w Polsce NMT 450), nie mogły sprostać oczekiwaniom, związanym głównie
z pojemnością sieci (ilością abonentów mogących jednorazowo korzystać z sieci) oraz z oczekiwaną jakością oferowanej usługi. Przy dużej ilości użytkowników graniczącej z fizyczną pojemnością sieci (czyli zdolnością danej sieci do pełnego obsłużenia danej ilości abonentów), sieć po prostu się "zatyka" i jej możliwości rozwoju są praktycznie rzecz biorąc zamknięte.
Ograniczanie pojemności determinowane jest głównie interfejsem radiowym, łączącym abonenta "z resztą świata". Zakres fal radiowych, dostępnych dla normalnego użytkowania, mieści się w zakresie od kilkudziesięciu kHz (kiloherców) do kilkudziesięciu GHz (gigaherców). Ze względu na fizyczne właściwości propagacji (rozchodzenia się) fal radiowych oraz możliwość korzystania z poszczególnych kanałów (zakresów), dla telefonii komórkowej przeznaczono pasma częstotliwości, mieszczące się w zakresach 450 MHz, 800 - 900 MHz czy 1800 - 1900 MHz. Im przydzielony zakres częstotliwości jest szerszy, tym system ma większą pojemność, lecz właściwości propagacyjne fal radiowych są gorsze, zwłaszcza w terenie
o zróżnicowanej morfologii (np. tereny miast lub rejony górzyste).
Utrudnianie lub wręcz uniemożliwianie dostępu osobom trzecim do informacji przekazywanej drogą radiową w systemie GSM ( 900 MHz jak i 1800 MHz ) odbywa się dwoma torami - wykorzystując techniki związane z eliminacją zakłóceń oraz techniki kryptograficzne, przeznaczone do utajnienia informacji.
Ze zwiększaniem ilości działających jednocześnie kanałów radiowych wzrasta prawdopodobieństwo wystąpienia zakłóceń interferencyjnych (nakładania się częstotliwości lub ich harmonicznych). I tutaj znalazły zastosowanie techniki kodowania informacji, praktycznie rzecz biorąc nie po to, aby informację utajnić, lecz również w celu wyeliminowania zakłóceń i zapewnienia jak najbardziej wiernego przekazywania informacji. Twórcy systemu GSM ustalając normy obowiązujące wszystkich operatorów, między innymi w zakresie interfejsu radiowego łączącego abonenta ze stacją bazową, sięgnęli po rozwiązania stosowane w technikach opracowanych m.in. dla służb wojskowych. Coraz to bardziej wysublimowana technologia półprzewodnikowa, umożliwiająca stosowanie skomplikowanych algorytmów kodowania i szyfrowania (technika mikroprocesorowa) spowodowała możliwość stosowania układów wielkiej skali integracji, instalowanych w terminalach (aparatach przenośnych) w celu przemiany sygnału, aby był odporny na wszelkiego rodzaju zakłócenia, a informacja wychodząca od abonenta dotarła do odbiorcy w jak najmniej zniekształconej formie. Kodowanie informacji praktycznie zaczyna się już
w torze małej częstotliwości, gdzie sygnał z mikrofonu zostaje poddany procesowi digitalizacji, czyli zamianie przebiegu analogowego na grupy impulsów zero-jedynkowych (cyfrowych). Informacja w postaci cyfrowej ma tę podstawową zaletę, że jest o wiele bardziej odporna na zakłócenia (zmiana np. amplitudy sygnału
w dużym zakresie nie powoduje zmiany niesionej informacji), łatwo jest nią manipulować i zachowywać. Informacja w takiej postaci jest następnie poddawana procesowi właściwego kodowania przy zastosowaniu filtru z liniowym prognozowaniem, generalnie polegającym na tym, że generowany na wyjściu filtru (kodera) bit jest wynikiem liniowej kombinacji poprzednich ośmiu bitów, dostarczanych na wejście filtru. Następną czynnością, zmierzającą do maksymalnej eliminacji wpływu zakłóceń, szumów oraz błędów jest operacja kodowania kanałowego oraz przeplot. Dodatkowo ogranicza się prawdopodobieństwo wystąpienia zakłóceń poprzez stosowanie wysublimowanych technik modulacji sygnału oraz jego transmisji. Przypadkowość przydzielania przez stację bazową poszczególnych szczelin czasowych oraz fakt, że transmisja sygnału odbywa się tylko w czasie mówienia do mikrofonu aparatu (gdy się słucha rozmówcy, telefon nie emituje sygnału radiowego) dodatkowo utrudnia osobie chcącej podsłuchać rozmowę wstrojenie się do danej częstotliwości nośnej.
Aby wyeliminować możliwość przejęcia informacji przez osoby do tego nie powołane w trakcie prowadzenia rozmowy, operatorzy sieci stosują profesjonalne metody szyfrowania, których szczegóły znane są tylko wąskiej grupie projektantów. Szyfrowanie oparte jest o zasadę wykonywania operacji logicznej ExclusiveOR na dwóch 114-bitowych sekwencjach - szyfrującej i informacyjnej. Sekwencja szyfrująca generowana jest według specjalnego algorytmu i jest różna dla nadawania i odbioru. Algorytm generujący sekwencje szyfrujące wykorzystuje numer ramki TDMA (22 bity)zmieniający się co 4,615 ms - przesyłany przez system oraz klucz szyfrujący (64 bity), generowany w Centrum Identyfikacji systemu. Klucz szyfrujący generowany jest przy każdym połączeniu i ma charakter pseudolosowy, ponieważ do jego ustalania wykorzystywana jest liczba przybierająca przypadkowe wartości z zakresu od (0) do (2128 - 1). Jak widać, prawdopodobieństwo wygenerowania klucza szyfrującego wynosi w przybliżeniu 2,9 x 10-39. Prawdopodobieństwo to jest jeszcze znacząco pomniejszane przez stosowanie specjalnego algorytmu tworzącego klucz (jak wyżej wspomniano, poprzez odpowiednie przetworzenie wygenerowanej liczby z numerem ramki TDMA), a przy prowadzeniu rozmowy klucz zmieniany jest ponad 216 razy na sekundę.
Interfejs radiowy
Komunikacja między siecią a stacją ruchomą odbywa się za pośrednictwem kanału radiowego. Jest to więc tak na prawdę komunikacja między BTS (BSC) a MS. Należy jednak pamiętać , że nadawcą i adresatem większości wiadomości sygnalizacyjnych nie jest podsystem stacji bazowej. Większość komunikatów obsługiwana jest przez dalsze elementy systemu: centralę MSC, czy rejestry HLR, VLR, AuC, EIR. Jedynie sygnalizacja dotycząca pomiarów parametrów kanału fizycznego, kodowania mowy
i przełączania (handover) w obrębie tego samego BSC jest obsługiwana przez podsystem stacji bazowej. Do transmisji w interfejsie radiowym służą kanały fizyczne, w których następnie umieszcza się określone kombinacje kanałów logicznych.


Kanały rozmówne (TCH - Traffic Channels): dwukierunkowe, przeznaczone do transmisji mowy z przepływnością 13kbit/s i danych z przepływnością do 9.6kbit/s lub mowy z przepływnością 7 kbit/s i danych z przepływnością do 4.8 kbit/s (tzw. kanały połówkowe)

Kanały rozsiewcze (BCH - Broadcast Channels): przeznaczone do transmisji informacji sygnalizacyjnych i synchronizacyjnych z BS do MS.

kanał korekcji częstotliwości FCCH (Frequency Correction Channel) -przenosi pakiet korekcyjny umożliwiający MS zsynchronizowanie się z częstotliwością BS,

kanał synchronizacyjny SCH (Synchronization Channel) - przenosi pakiet synchronizacyjny, umożliwiający MS synchronizację ramkową,

kanał kontrolny rozsiewczy BCCH (Broadcast Control Channel) -zawiera informacje identyfikujące stację bazową , operatora, numery kanałów w sąsiednich komórkach oraz inne parametry dostępu.

Wspólne kanały sygnalizacyjne (CCCH - Common Control Channels): wykorzystywane do zestawiania połączeń między MS i BS.

kanał przywoławczy PCH (Paging Channel) - do przesyłania informacji przywoławczych z BS do MS,

kanał wielodostępu (dostępowy) RACCH (Random Access Channel) -do przesyłania żądania dostępu ze stacji ruchomej do stacji bazowej,

kanał przydziału łącza AGCH (Access Grant Channel) - do przesyłania z BS do MS informacji o przydzieleniu wydzielonego kanału sygnalizacyjnego SDCCH (w odpowiedzi na żądanie dostępu).

Specjalne kanały sygnalizacyjne (DCCH - Dedicated Control Channels): wykorzystywane do wymiany informacji sygnalizacyjnych między MS i BS w trakcie obsługi żądania dostępu, identyfikacji abonenta i w czasie trwania połączenia (kanały są dwukierunkowe i łączą stację bazową z jedną , konkretną stacją ruchomą ).

wydzielony kanał sygnalizacyjny SDCCH (Standalone Dedicated Channel) - wykorzystywany w procedurach zgłoszenia i identyfikacji abonenta,

wolny pomocniczy kanał sygnalizacyjny SACCH (Slow Associated Control Channel) - do przesyłania informacji systemowych w czasie trwania połączenia (sterowanie mocą stacji, wyprzedzeniem czasowym, przekazywanie wyników pomiarów poziomu sygnału własnej i sąsiednich stacji bazowych),

szybki pomocniczy kanał sygnalizacyjny FACCH (Fast Associated Control Channel) - wykorzystywany do szybkiego przesyłania informacji sygnalizacyjnych (np. w czasie przenoszenia połączenia między komórkami).

GPRS i HSCSD
Niewątpliwe zalety GPRS - szybkość zestawiania połączeń, łatwość integracji
z sieciami opartymi na IP (Internet Protocol) oraz możliwość uniezależnienia opłaty od czasu trwania sesji - pozwolą na znaczne dynamiczniejszy rozwój usług wykorzystujących przesyłanie danych i stanowią rewolucję w sposobie korzystania z technik transmisji danych w sieciach mobilnych. Cechy te z pewnością wpłyną na upowszechnienie WAP oraz dostępu do takich usług jak poczta elektroniczna.
W przypadku przesyłania dużych plików, połączeń modemowych, a w przyszłości zestawiania videokonferencji niezbędne będzie użycie HSCSD z uwagi na możliwość zarezerwowania stałego pasma w czasie trwania połączenia. Przypominamy, że Plus GSM, jako jedyna sieć mobilna w Polsce, udostępnił swoim abonentom szybką transmisję danych od 1 marca 2000 r. Szybka transmisja danych jest dostępna w usługach Przesyłanie danych i Dane Plus. Opłata za połączenie jest stała i nie jest uzależniona od liczby użytych kanałów.
Porównanie zastosowań technologii GPRS i HSCSD
Zastosowanie HSCSD Zastosowanie GPRS
Szybkie odbieranie poczty elektronicznej (odczytywanie dużych zbiorów) Możliwość ciągłej pracy z pocztą elektroniczną
Videokonferencje Dostęp do intranetu i korzystanie z jego zasobów
Aplikacje czasu rzeczywistego, np. pomiary medyczne Dostęp do Internetu
Połączenia z modemami zainstalowanymi w sieciach telefonicznych Zastosowania telemetryczne i monitoringu
Dostęp do serwisów WAP
Realizacja usług transakcyjnych: uwierzytelnienie kart kredytowych, usługi bankowe, rezerwacje i opłaty.
GPRS umożliwia naliczanie opłat w zależności od liczby przesłanych i odebranych danych. Dzięki temu GPRS pozwala nam na ciągłe podłączenie do sieci bez obawy, że opłata będzie uwzględniać czas połączenia. Opłata uzależniona jest tylko od naszej aktywności, a nie od tego jak długo jesteśmy podłączeni. Dodatkowo nie musimy czekać aż nasz modem uzgodni protokół i warunki transmisji z drugim modemem, GPRS umożliwia nam prawie natychmiastowe podłączenie. Korzystanie z GPRS uwarunkowane jest posiadaniem telefonu komórkowego, który potrafi obsługiwać transmisje pakietową oraz wykorzystywać więcej niż jeden kanał dla zwiększenia prędkość transmisji danych. Taka funkcjonalność będzie możliwa w nowych telefonach, które będą oferowane wraz z wprowadzeniem GPRS. Terminal GPRS posiada wszystkie właściwości zwykłego telefonu komórkowego GSM. Dodatkowo, telefony GPRS umożliwiają przyjmowanie rozmów w czasie korzystania np. z serwisów WAP. Po odebraniu połączenia sesja WAP jest zawieszana na czas trwania rozmowy i możemy powrócić do stron WAP po jej zakończeniu. Jedną z podstawowych usług, jakie są oferowane przy pomocy GPRS jest dostęp do światowej sieci Internet. Użytkownik może posłużyć się przeglądarką WAP umieszczoną w telefonie lub podłączyć telefon do komputera i wykorzystywać go jako modem. Każda z firm może zostać podłączona do sieci GSM i być dostępna tylko dla swoich pracowników przez GPRS. Podłączenie jest całkowicie odseparowane od innych sieci, a w szczególności od sieci Internet.
GPRS teoretycznie oferuje prędkości transmisji zaczynając od 9,05 kb/s, a kończąc na 171,2 kbit/s. Rzeczywiste prędkości uzależnione są od typu posiadanego aparatu (a więc możliwości obsługi określonej liczby kanałów) oraz od warunków propagacyjnych panujących w danej lokalizacji. Obecne telefony umożliwiają transmisję GPRS wykorzystując od 2 do 3 kanałów, co daje maksymalne prędkości transmisji odpowiednio 26,8 kbit/s i 40,2 kbit/s.
WAP
W czerwcu 1999 roku Nokia, Unwired Planet wraz z Ericssonem i Motorolą powołały Wireless Application Protocol (WAP) Forum Jego celem było opracowanie jednolitej, uniwersalnej i ogólnie akceptowalnej specyfikacji, umożliwiającej tworzenie i udostępnianie abonentom sieci komórkowych usług poprzez Internet. Pierwsza, pełna specyfikacja WAP ujrzała światło dzienne zaledwie po 10 miesiącach prac, w kwietniu bieżącego roku. Większość składających się na WAP protokołów i aplikacji powstała bezpośrednio w wyniku modyfikacji bądź adaptacji istniejących protokołów internetowych, takich jak TCP/IP, HTML, HTTP. Niektóre rozwiązania i aplikacje zaczerpnięto z podobnych, istniejących już systemów rozwijanych do tej pory samodzielnie, m.in. przez Nokię (TTML, Smart Messaging) oraz Unwired Planet (HDML, HDTP). WAP jest w pełni niezależny od infrastruktury i rodzaju sieci komórkowych oraz używanych terminali. Dzięki WAP abonenci dowolnego rodzaju sieci komórkowych i pagerowych, używający dowolnego rodzaju terminali, począwszy od najprostszych telefonów czy pagerów, poprzez palmtopy, na notebookach kończąc, będą mieli dostęp do tych samych aplikacji i usług.
Niestety zanim będzie to możliwe, najpierw na rynku muszą pojawić się kompatybilne z WAP-em terminale. Według zapowiedzi największych producentów telefonów, pierwsze aparaty zgodne z WAP powinny być dostępne jeszcze w tym roku. Także operatorzy, by udostępnić WAP abonentom, powinni odpowiednio przystosować sieci, np. instalując specjalne gatewaye (WAP Proxy) do/z swojego systemu i Internetu Aby zapewnić możliwie bogatą ofertę usług, powinni znaleźć się też internetowi usługodawcy chcący tworzyć serwisy dedykowane dla przyszłych użytkowników WAP. Duże zainteresowanie tym systemem, przynajmniej ze strony operatorów i producentów terminali oraz duża siła przebicia firm promujących, dobrze mu wróżą. Problemem wciąż pozostaje natomiast przekonanie niezależnych internetowych usługodawców oraz oczywiście ewentualnych użytkowników. Dotychczasowe doświadczenia Nokii ze Smart Messagingiem i Unwired Planet pokazują jak ważna dla odniesienia sukcesu jest akceptacja producentów terminali, operatorów oraz usługodawców i dostawców informacji. Brak poparcia którejkolwiek ze stron oznacza brak akceptacji dla danego rozwiązania na rynku. Dla przykładu: Nokia do tej pory jest praktycznie jedynym producentem telefonów zgodnych ze specyfikacją Smart Messaging, zaś gatewaye dla systemu Unwired Planet (UP.Link) zainstalowało zaledwie kilku amerykańskich operatorów. Wygląda jednak na to, że WAP zdobędzie dużo szersze poparcie, chociażby z tego względu, że inicjatywę tę poparły wszystkie najbardziej liczące się firmy w branży. Ewentualnych usługodawców powinno przekonać z kolei to, że WAP jest bardzo mocno osadzony w środowisku internetowym.
W ramach WAP zdefiniowany został specjalny język opisu stron internetowych, WML (Wireless Markup Language). WML jest wzorowany na HTML-u, dzięki temu stworzenie WML-owych wersji, istniejących już HTML-owych stron, nie powinno być zbyt uciążliwe. Użytkownicy WAP będą korzystać ze wszystkich informacji i usług udostępnianych w Internecie podobnie jak pozostali internauci, odwołując się do WML-owych kart (ang. cards) - będących odpowiednikami HTML-owych stron - za pomocą ich adresów URL. Terminale abonenckie (telefony, palmtopy, notebooki) wyposażone zostaną w przeglądarki WML-a, tzw. mikroprzeglądarki (ang. microbrowser), nazwane tak ze względu na niewielką objętość kodu i minimalne zapotrzebowanie na pamięć operacyjną i moc obliczeniową potrzebną do działania. Ze względu na swoje niewielkie wymagania - typowa mikroprzeglądarka WAP powinna zajmować tylko około 128 KB pamięci ROM i dodatkowo kilkanaście kilobajtów pamięci RAM - może być zaimplementowana nawet w tak nieskomplikowanych urządzeniach jak pagery. Nowe protokoły i aplikacje opracowane w ramach WAP uwzględniają specyfikę współczesnych bezprzewodowych systemów łączności, niewielkie przepustowości dla transmisji danych, duże wnoszone opóźnienia, rzędu kilkunastu sekund, różne typy usług transmisji danych (SMS-y, USSD, łącza komutowane) i ograniczenia związane z najczęściej bardzo skąpym interfejsem użytkownika większości terminali (niewielkie, kilkunastoznakowe wyświetlacze tekstowe bądź graficzne wraz z prostymi, telefonicznymi klawiaturami numerycznymi). Pełna architektura WAP przedstawiona została na rysunku 10:

Jej najważniejszym elementem jest WAP Proxy serwer pełniący funkcje gatewaya pomiędzy standardowymi internetowymi protokołami komunikacyjnymi, takimi jak TCP/IP i HTTP, a odpowiadającymi im protokołami WAP dla sieci komórkowych: Wireless Session Layer (WSP), Wireless Transport Layer Security (WTLS) i Wireless Transport Protocol (WTP). Specjalne znaczenie ma opcjonalny serwer rozszerzający możliwości platformy WAP: WML konwerter, który filtruje i transluje HTML na WML i vice versa, dzięki któremu abonenci WAP uzyskują dostęp także do "tradycyjnych", nie tylko WML-owych web serwerów. Ostatnią maszyną uwidocznioną na rysunku jest Wireless Telephony Application (WTA) serwer. WTA jest specjalizowanym serwerem WML-owym dedykowanym do tworzenia usług internetowych wykorzystujących możliwości komunikacyjne telefonów, np. odwołujących się poprzez skrypty WML-owe do książki telefonicznej na karcie SIM bądź przejmujących kontrolę nad przebiegiem połączenia (transfer rozmów, zawieszanie połączeń, obsługa połączeń konferencyjnych, itp.).
Jak wcześniej wspomniałem, aplikacje WAP są w pełni przeźroczyste dla rodzaju sieci czy używanych usług transmisji danych. Zapewnia to, tradycyjna we wszystkich systemach telekomunikacyjnych, warstwowa architektura protokołów przedstawiona dla WAP na rys. 11.

Rys. 11. Protokoły WAP.
Najniższą, "fizyczną" warstwę stanowią tutaj poszczególne usługi transmisji danych występujące w różnych typach sieci komórkowych, np. SMS, USSD, CSD (połączenia komutowane), HSCSD, GPRS dla GSM. Pierwszą, wspólną warstwą WAP jest Wireless Transport Layer (WTP), będący odpowiednikiem internetowego protokołu TCP/IP. Głównym zadaniem WTP jest dostarczenie kanału transmisyjnego niezawodnego i przeźroczystego dla warstw wyższych, niezależnie od używanej usługi transmisji danych. Ze względu na różnorodność i odmienną specyfikę różnych możliwych usług transmisji danych, w ramach WTP zdefiniowane zostały aż trzy protokoły: WTP/D dla usług transmisji danych typu datagram (np. SMS), WTP/T dla usług o charakterze transakcyjnym oraz WTP/C dla usług połączeniowych (tradycyjna usługa transmisji danych po łączach komutowanych). Z usług warstwy transportowej korzysta warstwa Wireless Transport Layer Security (WTLS), odpowiedzialna za zapewnienie bezpieczeństwa, integralności i poufności przesyłanych danych. WTLS jest odpowiednikiem HTTPS, stosowane mechanizmy bezpieczeństwa to szyfrowanie przesyłanych danych oraz autoryzacja użytkowników. Wprowadzenia tej warstwy wymagają m.in. wszystkie aplikacje bankowe i elektronicznego handlu. Za nawiązanie i podtrzymanie sesji komunikacyjnej pomiędzy różnymi aplikacjami, np. mikroprzeglądarką a serwerem internetowym, odpowiada kolejna warstwa, Wireless Session Protocol (WSP). WSP powstała w wyniku modyfikacji internetowego protokołu HTTP. Ostatnią i najistotniejszą, z punktu widzenia użytkownika i uruchamianych przez niego aplikacji, jest warstwa Wireless Application Environment (WAE).
WAE zapewnia wspólne, uniwersalne i otwarte środowisko pracy dla wszystkich istniejących i przyszłych aplikacji opartych na internetowym modelu programowania typu klient-serwer, w postaci stron i skryptów przechowywanych i udostępnianych przez sieciowe serwery WWW (WML) dla przeglądarek klienta. WAE umożliwia tworzenie interaktywnych aplikacji, które powinny funkcjonować tak samo we wszystkich urządzeniach niezależnie od dostępnej pamięci, mocy obliczeniowej oraz zastosowanego interfejsu użytkownika, podobnie jak internetowe serwisy mogą być uruchamiane zarówno na komputerach klasy PC z zainstalowanymi przeglądarkami Netscape'a czy Microsoftu jak i na maszynach unixowych i innych komputerach. W porównaniu do klasycznych aplikacji webowych, WAE otwiera nowe możliwości tworzenia serwisów wykorzystujących możliwości i usługi oferowane przez telefony i sieci komórkowe, takie jak: przesyłanie wiadomości (ang. messaging) czy obsługa połączeń (ang. call control).
Po stronie klienta środowisko WAE tworzą dwie podwarstwy: podwarstwa aplikacyjna oraz podwarstwa danych (rysunek 12).

WAE.
Podwarstwa aplikacyjna WAE jest zależna od konkretnej implementacji: typu urządzenia (telefon, palmtop), zastosowanego interfejsu użytkownika (klawiatury, wyświetlacza), itp. Podwarstwa aplikacyjna stanowi środowisko dla wielu różnych tzw. agentów (user agents) umożliwiając im jednoczesną i bezkonfliktową współpracę, zarządza dostępem do wspólnych zasobów np. wyświetlacza, klawiatury czy książki telefonicznej. Typowymi przykładami takich agentów jest agent WML (przeglądarka WML), agent WTA oraz edytor wiadomości SMS i książki telefonicznej. Przeglądarka WML i agent WTA są podstawowymi, zdefiniowanymi w ramach WAP użytkownikami WAE. Ze względu na otwartą architekturę WAP, poszczególni producenci terminali WAP mają wolną rękę przy dodawaniu nowych, specyficznych agentów związanych np. z głosowym systemem sterowania telefonem PAC (Personal Acoustic Control). Agenci podwarstwy aplikacyjnej porozumiewają się ze zdalnymi procesami i aplikacjami poprzez podwarstwę danych za pomocą języków o zdefiniowanym formacie wymiany wiadomości (services and formats). Dla WAP zdefiniowane zostały następujące formaty przesyłania informacji: Wireless Markup Language (WML) oraz skrypty WML (WMLScripts).
Tworzenie WAP-owych wersji istniejących usług np. informacyjnych oraz nowych, dedykowanych dla abonentów sieci komórkowych, będzie możliwe przy minimalnym nakładzie kosztów i pracy. Zaangażowanie się w tę nową technologię niesie za to w zamian potencjalnie ogromne zyski i nowe, nieprzeliczone rzesze klientów rekrutujących się z grona użytkowników bezprzewodowych systemów łączności.
WML jest językiem opisu stron wywodzącym się z HTML-a i HDML-a. WML należy do klasy języków XML: Extensible Markup Language. WML-owe strony zorganizowane są w karty (ang. cards), które z kolei grupowane są w talie (ang. decks). Talia stanowi zestaw jednej bądź kilku kart, które przesyłane są podczas jednokrotnego odwołania się do wybranej karty poprzez jej URL. Karta, podobnie jak internetowa strona, może zawierać informacje dla użytkownika, polecenie wprowadzenia danych przez użytkownika, dokonania wyboru z listy dostępnych opcji bądź wymuszenia skoku do innej karty. WML definiuje treść przekazywanej karty, o formie jej prezentacji decyduje zaś przeglądarka WML-a, specyficzna dla każdego urządzenia. W zależności od możliwości terminala, forma prezentacji może zmieniać się od prostego przekazu wyłącznie czystego tekstu, poprzez tekst formatowany (różne rodzaje czcionek, wytłuszczenia, tabulacje), po grafikę czy nawet animacje. WML-owe karty mogą być też wzbogacone o skrypty (WMLScripts) będące binarnymi procedurami napisanymi w języku JavaScript, a dokładniej w języku zgodnym ze standardem ECMA-262. Procedury napisane w WMLScripcie mogą być wykorzystywane np. do autoryzacji użytkownika z poziomu telefonu, bez konieczności komunikowania się z serwerem, do którego użytkownik stara się o dostęp, bądź wstępnego przetworzenia (np. sprawdzenia poprawności) danych wprowadzonych przez użytkownika przed ich przesłaniem do serwera. Rozszerzenie WML-a stanowią także biblioteki usług WTA. Zdefiniowane zostały trzy klasy bibliotek WTA: Common Network Services, Network Specific Services oraz Public Services. Podobnie jak w podwarstwie aplikacyjnej mogą istnieć dodatkowi agenci, nie ujęci specyfikacją WAP, tak w podwarstwie danych mogą dla poszczególnych urządzeń pojawić się dodatkowe, specyficzne dane wykorzystywane przez te urządzenia, jak np. wiadomości w formacie elektronicznej wizytówki (vCard) lub terminarza (vCalendar)

GPS

Globalny System Pozycjonowania GPS (Global Positioning System) – jest to satelitarny system przeznaczony do szybkiego i dokładnego wyznaczania współrzędnych geograficznych określających pozycję anteny odbiornika w przestrzeni. Sygnały odbierane przez dowolny odbiornik GPS dostępne są w sposób ciągły, niezależnie od warunków pogodowych, w dowolnym czasie i miejscu (pod warunkiem że antena "widzi niebo" - może się zdarzyć, że nie będzie można ustalić pozycji np. w tunelu).

Globalny System Pozycjonowania (GPS) składa się z 24 satelitów poruszających się wokół Ziemi po kołowych orbitach o nominalnej wysokości 20183 km nad powierzchnią naszej planety. Satelity rozmieszczone są w sześciu płaszczyznach orbitalnych, nachylonych do równika pod kątem 55 stopni. Każdy satelita okrąża Ziemię w 11 godzin i 58 minut. Parametry orbit są kontrolowane przez stacje naziemne.

Schemat konstelacji satelitów Globalnego Systemu Pozycjonowania (GPS) przedstawia rysunek.

Satelity wysyłają sygnały radiowe na częstotliwościach ok. 1,5 GHz pod kontrolą zsynchronizowanych ze sobą wzorców czasu. Na podstawie różnic czasu w jakim docierają do odbiornika sygnały z satelitów i co za tym idzie różnic drogi, mikroprocesor w odbiorniku dokonuje obliczenia pozycji odbiornika.

Warto pamiętać że:
· Sygnały docierające do odbiornika z poszczególnych satelitów są poniżej poziomu szumów i do ich dekodowania stosowane są wyszukane techniki demodulacji.
· Dokładność orbity satelity (odchyłka od teoretycznej) ma bezpośredni wpływ na dokładność określania pozycji odbiornika.
· Do określenia pozycji odbiornika (ściślej: anteny odbiornika) w 2 wymiarach na powierzchni Ziemi potrzeba teoretycznie "widoczności" 3 satelitów (przy stosowanych częstotliwościach sygnały rozchodzą się "optycznie").
· W nawet najprostszym odbiorniku obliczeń pozycji dokonuje specjalizowany mikroprocesor o bardzo dużej mocy obliczeniowej.
· Sygnały odbierane przez odbiorniki "powszechnego użytku" zawierają (zawierały) sztucznie wprowadzany przez Departament Obrony USA sygnał zakłócający (SA), zwiększający błąd określania pozycji. Odbiorniki uprawnione (wojskowe) eliminują ten sygnał zakłócający, może być on także wyłączony w zależności od decyzji Departamentu Obrony.
· System GPS może zostać w dowolnym momencie wyłączony przez rząd USA.
System GPS został udostępniony dla użytkowników cywilnych w 1983 roku. Aby jednak nie doszło do wykorzystania systemu przeciwko jego twórcom wprowadzono dwa różne stopnie dokładności: Standard Positioning Service - dostępny dla wszystkich oraz Precision Positioning Service zarezerwowany jedynie dla zadań specjalnych.

Jako ciekawostkę można podać, że cywilne 12 kanałowe odbiorniki (odbierające sygnały nawet z 12 satelitów jednocześnie), są w stanie poprawnie pracować do prędkości przemieszczania się 1665 km/h i wysokości do 18 km.

Odbiornik GPS służy do odbioru oraz przetwarzania sygnału i dekodowania informacji satelitarnej. Wyznacza on czas jaki upłynął od momentu wysłania sygnału do momentu jego odbioru. Na tej podstawie określa on odległość pomiędzy satelitą, a użytkownikiem, a także położenie satelity w momencie nadawania sygnału. Odległości od satelitów i ich współrzędne są wystarczającymi danymi do wyznaczenia położenia odbiornika.

Do określenia trójwymiarowego położenia (pozycji odbiornika – pojazdu) wystarczają jedynie pomiary z trzech satelitów. Jednakże, ze względu na fakt, iż większość odbiorników nie jest wyposażona w najbardziej zaawansowane zegary (bardzo wysoki koszt) oraz aby wyeliminować powstające z tego względu błędy pomiarowe, potrzebny jest dodatkowy pomiar z czwartego satelity.

WLAN

Technologia Wi-Fi może służyć do łączenia ze sobą dwóch lub więcej komputerów w sieć typu peer-to-peer, jednak najczęściej tworzony jest punkt dostępowy z anteną o większej mocy. Taka stacja bazowa może pełnić funkcję routera, serwera DHCP lub dostarczać inne usługi typowe dla serwerów sieciowych. Komputery wyposażone w kartę Wi-Fi, będące w zasięgu stacji bazowej, mogą korzystać z bezprzewodowej transmisji. Jeżeli zaś stacja pełni funkcję bramki z dostępem do Sieci, całość daje nam zapowiadany od lat bezprzewodowy Internet! Komputery z kartą Wi-Fi mogą łączyć się ze sobą (peer-to-peer) lub z wydzielonym nadajnikiem, zwanym stacją bazową bądź punktem dostępowym. Technologia Wi-Fi w najpopularniejszej wersji umożliwia przesyłanie danych z prędkością do 11 Mbit/s na odległość nawet do kilkudziesięciu kilometrów w przestrzeni otwartej i kilkudziesięciu metrów w przestrzeni ograniczonej. W praktyce dystans ten jest uzależniony od ukształtowania terenu, rodzaju materiałów wykorzystanych w budynkach itp. Do transmisji wykorzystywane jest pasmo 2,4 GHz, które w Polsce od niedawna jest ogólnodostępne. Nowsze odmiany tej technologii to: 802.11a (prędkość do 54 Mbit/s i częstotliwość 5 GHz) i 802.11g (ma być ratyfikowana w połowie 2003 r. - przepustowość 22 Mbit/s i praca w paśmie 2,4 GHz). Sieci wykorzystujące technologię Wi-Fi są narażone na ataki hakerów. Wielu administratorów nie stosuje żadnych poważniejszych zabezpieczeń, o czym można się przekonać, jeżdżąc po ulicach niektórych miast europejskich z odpowiednio wyposażonym notebookiem. Specyfikacja 802.11 pozwala na wykorzystanie numeru SSID (Service Set Identifier) jako formy identyfikacji użytkowników sieci. Aby można podłączyć się do sieci, numery SSID karty radiowej i punktu dostępowego muszą być takie same. W wielu przypadkach jest to jedyne zabezpieczenie przed nieautoryzowanym dostępem. Biorąc jednak pod uwagę fakt, że SSID jest przekazywany przez punkt dostępowy wiele razy w ciągu sekundy wewnątrz każdej ramki, jest to bardzo słabe zabezpieczenie. Haker z łatwością może je złamać, korzystając z takich narzędzi, jak AirMagnet, Netsstumbler czy AiroPeek. W przypadku Windows XP nie są one konieczne, gdyż sam system przychodzi z pomocą, wykrywając SSID danej sieci i automatycznie konfigurując kartę notebooka.
Nawet jeżeli osoba z zewnątrz dostanie się do sieci za pomocą odpowiedniego SSID, często potrzebny jest jej jeszcze numer IP, by móc z niej korzystać. Wiele sieci bezprzewodowych korzysta jednak z mechanizmu DHCP (Dynamic Host Configuration Protocol), gdzie taki numer przydzielany jest automatycznie. To rozwiązanie, często stosowane w sieciach publicznych (np. w hotelach), nie sprzyja bezpieczeństwu. W celu jego zwiększenia stosuje się kodowanie WEP (Wired Equivalent Privacy). Metoda ta nie jest, niestety, w pełni skuteczna, gdyż istnieją sposoby złamania jej. Niezbędne do tego dane można zebrać, monitorując aktywną sieć przez około jeden dzień. Lepiej jednak korzystać z WEP-u, szczególnie jeżeli zmieniamy w miarę często klucz szyfrujący.
Mimo iż dostęp bezprzewodowy jest z natury obarczony dużym ryzykiem nieautoryzowanego dostępu, nie oznacza to, iż takich sieci nie można skutecznie zabezpieczyć. Do tego celu stosowane są m.in. wirtualne sieci prywatne (VPN) czy technika RADIUS.

Całość w załączniku.

Czy tekst był przydatny? Tak Nie

Czas czytania: 124 minuty