Teoretyczne podstawy modelowania systemów informacji eksploatacyjnej (SIE)

Eksploatacja urządzeń jest szczególnego rodzaju działaniem człowieka. Działanie to wymaga od ludzi celowo działających świadomości, że realizują je najlepiej. Przekonanie zaś takie można mieć tylko wtedy, gdy działa się w myśl wskazań nauki traktującej o tym, jak działać najlepiej. Dla eksploatatorów urządzeń nauką taką jest teoria eksploatacji urządzeń – eksploatyka techniczna [6].

Już sama definicja działania zwraca uwagę na jego celowość. Należy więc przyjrzeć się celowi eksploatacji obiektu technicznego. W publikacjach kwalifikujących się do nauki o eksploatacji na ogół nie pomija się rozważań na temat celu eksploatacji. Ale też ten cel widzi się przede wszystkim jako cel użytkowania i co najwyżej mówi się o optymalnej eksploatacji, bliżej nie wyjaśniając, na czym ta optymalizacja ma polegać. W tych niedopowiedzeniach upatrywać można się przyczyn niezadowalającego stanu obiektów technicznych w gospodarce. Ujawnia się to często m.in. podczas szacowania wartości likwidowanych czy komercjalizowanych przedsiębiorstw. Teraz dopiero uświadamiamy sobie, jakie znaczenie może mieć wartość eksploatowanego obiektu technicznego i że zadany poziom tej wartości jest przecież jednym z celów jego eksploatacji.

Na eksploatację obiektu technicznego składają się dwa działania: użytkowanie i obsługiwanie tego obiektu. Celem działania jest zamierzony stan przedmiotu tego działania. A więc, celem użytkowania obiektu technicznego jest zamierzony stan przedmiotu tego użytkowania (nie narzędzia), celem obsługiwania tego obiektu jest zamierzony stan przedmiotu tego obsługiwania tj. samego tego obiektu technicznego. Stąd, wartości celu eksploatacji trzeba poszukiwać w postępowaniu optymalizacyjnym, w którym kryterium optymalizacji będzie funkcją złożoną co najmniej z wielkości opisujących cele (wartości uzyskiwane z użytkowania i wartości nadawane przez obsługiwanie obiektu technicznego) [6].

Teoria eksploatacji opiera się przede wszystkim na uogólnieniach tzw. eksploatacji szczegółowych, które zajmują się stosowaniem określonych rodzajów urządzeń, np. eksploatacja pojazdów mechanicznych, maszyn roboczych itp.

Ale właściwie to dwie nauki umożliwiły bezpośrednio powstanie teorii eksploatacji: teoria działania, znana powszechnie pod nazwą prakseologii, oraz teoria układów względnie odosobnionych, rozwijana w ramach cybernetyki. Pierwsza z tych nauk pozwala spojrzeć na eksploatację jako na szczególny przypadek działania człowieka, a mianowicie takiego działania, w którym ma on do czynienia z urządzeniem. Druga z tych nauk pozwala spojrzeć i na człowieka i na urządzenie tak samo, mianowicie jako na układ względnie odosobniony, mający swoje wejścia, wyjścia oraz odpowiednio zorganizowane wnętrze. Szczególnie przydatne są w teorii eksploatacji metody matematyczne rozwijane w obrębie badań operacyj­nych oraz tzw. teorii systemów.

Teoria eksploatacji urządzeń jest nauką abstrakcyjną. Abstrahuje ona od wielu istotnych względów, dla których mogłoby być interesujące zjawisko eksploatacji urządzeń. Uznaje jednak te względy, które w danym badaniu są najbardziej istotne. Metoda, jaką więc stosuje, jest wypróbowaną metodą nauk abstrakcyjnych – metodą modelowania.

Zanim problemy eksploatacyjne zacznie się rozwiązywać matematycznie, trzeba je najpierw sformułować i opisać niematematycznie. Aparatura pojęciowa cybernetyki i prakseologii może być na tym etapie szczególnie przydatna. Ścisłość zaś na tym wstępnym etapie rozważań może zapewnić tylko aparat pojęciowy logiki matematycznej i teorii mnogości.

Na rysunku 4.1. przedstawiono schematycznie naukoznawczą strukturę eksploatyki. Zgodnie z tą koncepcją rozróżnia się dwa obszary: obszar praktyki i obszar teorii eksploatacyjnej.

Rys.4.1. Naukoznawcza struktura eksploatyki [14]

W obszarze praktyki znajduje się wyodrębniony, ze względu na prowadzone badania, pewien fragment rzeczywistości, zwany oryginałem eksploatacyjnym. W obszarze zaś teorii znajdujemy tylko modele tego fragmentu – oryginału. Zależnie zaś od właściwości wyróżniono: modele opisowe, modele formalne, modele matematyczne oraz stosowane modele eksploatacyjne [14].

Opisowym modelem eksploatacyjnym nazywamy taki model eksploatacyjny, który przedstawiony jest w danym języku etnicznym za pomocą co najwyżej pewnych symboli rysunkowych. Uporządkowany w pewien sposób zbiór takich modeli można umownie nazwać eksploatyką opisową.

Formalnym modelem eksploatacyjnym nazywamy taki model eksploatacyjny, który przedstawiony jest w języku logiki formalnej i teorii mnogości. W tym przypadku pojęcia, którymi operujemy w modelu, mają bardzo precyzyjnie określone swoje zakresy znaczeniowe. W tego typu modelach badamy przede wszystkim pewne właściwości formalne modelowego fragmentu rzeczywistości. Uporządkowany w pewien sposób zbiór formalnych modeli eksploatacyjnych można umownie nazwać eksploatyką formalną.

Matematycznym modelem eksploatacyjnym nazywamy taki model eksploatacyjny, który przedstawiony jest w języku matematyki. W modelach tego typu szczególnie istotne są pewne zależności ilościowe. W strukturze takiego modelu możemy wyróżnić parametry, a wśród nich zmienne decyzyjne, charakterystyki oraz miary jakości modelowanego oryginału eksploatacyjnego. Model taki zawiera ponadto dwa istotne operatory, z których pierwszy przeprowadza zbiór parametrów w zbiór charakterystyk, a drugi – zbiór charakterystyk w zbiór miar jakości. Uporządkowany w pewien sposób zbiór matematycznych modeli eksploatacyjnych możemy umownie nazwać eksploatyką matematyczną [14].

Pragmatycznym modelem eksploatacyjnym nazywamy taki model eksploatacyjny, który przedstawiony jest w języku decydenta danego fragmentu modelowanej rzeczywistości. Najczęściej są to pewne dyrektywy praktyczne, normy postępowania w pewnych sytuacjach, wskaźniki oceny jakości eksploatacji, praktyczne algorytmy decyzyjne przedstawione w postaci tablic, nomogramów lub programów maszynowych. Uporządkowany w pewien sposób zbiór pragmatycznych modeli eksploatacyjnych możemy nazwać eksploatyką stosowaną [14].

Podstawowe wiadomości o VoIP

VoIP (ang. Voice over IP) bardzo często nazywany jest telefonią internetową (In¬ternet Phone). Jest to technologia, która poprzez łącza internetowe czy też sieci dedykowane zapewnia transmisję dźwięku w postaci pakietów przy użyciu protokołu IP (Rozdział 2.1). Dzięki temu, że dane transportowane są przy zastosowaniu protokołu IP można wyeliminować tak zwane „połączenie ciągłe” oraz np. wymianę danych kiedy rozmówcy milczą.

Podstawowym zadaniem technologii VoIP jest integracja ruchu telefonicznego z transmisją danych oraz utworzenie jednej sieci, która będzie mogła transmitować wszelkie rodzaje ruchu. Technologia ta jest wdrażana przez wiele firm, które produkują zarówno sprzęt jak i oprogramowanie dla telekomunikacji, oraz operatorzy telekomunikacyjni.

VoIP ma dwa główne zastosowania. Pierwszym jest użycie tej technologii do prowadzenia rozmów telefonicznych zarówno międzymiastowych jak i między-narodowych. Realizacja połączenia odbywa się bez zastosowania infrastruktury tradycyjnych operatorów telefonicznych, dzięki czemu uzyskuje się dużą swobodę oraz redukcję kosztów, która jest tym większa, im większe są odległości między rozmawiającymi osobami. W połączeniach z drugim użytkownikiem VoIP brak jest opłat taryfikacyjnych (za minutę połączenia), co jest atrakcyjnym rozwiązaniem. Brak takiej opłaty przyczynił się do tego, że obok tradycyjnego połączenia VoIP przy użyciu głośników i mikrofonu powstały urządzenia dedykowane do rozmów, które są bardziej wygodne w użyciu i w przeciwieństwie do komputera mobilne.

Obecnie za stałą opłatą dla providera Internetu można rozmawiać z każdym po¬siadającym dostęp do „Internetu”. Wiele firm oferuje także możliwość rozmowy z osobami korzystającymi ze zwykłej sieci telefonicznej z komutacją łączy. Firmy te za dodatkową opłatą zezwalają na korzystanie z ich bramek, które to są inter¬fejsami między siecią POTS (ang. Plain Old Telephone Service) a siecią pakietową.

Drugim zastosowaniem technologii VoIP jest integracja sieci korporacyjnych. Inte¬gracja sieci transmisji głosu i danych powoduje znaczne obniżenie kosztów zarówno wdrożenia jak i późniejszej konserwacji sieci. Zastosowanie technologii VoIP w sieciach korporacyjnych jest łatwiejsze niż w sieci Internet, ponieważ można w nich określać priorytety strumieni danych przesyłanych w sieci. W sieci Internet obejmującej swoim zasięgiem cały świat jest to prawie niewykonalne. W sieci pakietowej zastosowanej wewnątrz firmy prościej jest zastosować wiele usług między innymi: telekonferencje, które w przypadku sieci z komutacją łączy powodują dużo problemów.

Systemy VoIP mogą zostać wdrożone w celu realizacji usług telefonicznych w istniejącej już infrastrukturze, jednak aby było to możliwe muszą spełniać one kilka warunków, a mianowicie:

  • wysoka wydajność przetwarzania zgłoszeń zarówno w sieci wewnętrznej jak również między prywatnymi i publicznymi sieciami pakietowymi,
  • skuteczne transmitowanie rozmów między sieciami IP, a sieciami z komutacją łączy w czasie rzeczywistym,
  • skalowalność zarówno pod względem technologicznym jak i ekonomicznym,
  • akceptacja oraz implementacja standardów przez producentów sprzętu.

Jak już wcześniej wspomniałam VoIP zapewnia transmisję głosu w postaci pakietów. Aby doszło do połączenia głosowego, czyli potocznej „rozmowy telefonicznej” z dowolnego numeru telefonu stacjonarnego (analogowego bądź cyfrowego) konieczne jest zastosowanie pośredniczących bramek internetowych, które to łączą sieci PSTN (publiczne sieci) z Internetem. W bramkach tych następuje także pakietyzacja i kompresja analogowego sygnału głosu. Organizacja ITU (ang. International Telecommunication Union) opracowała kilka standardów stosowanych do kodowania głosu. Sposób kompresji mowy powoduje, iż im stopień kompresji jest wyższy, tym jakość głosu po zdekodowaniu jest niższa. Do najlepszych algorytmów kompresji głosu należą te, które generując najmniejszą ilość bitów po kompresji, nie powodują istotnych zmian „tembru” przesyłanego głosu oraz zniekształceń, które uniemożliwiłyby odbiór takiego sygnału.

Przy pomocy właściwego kodowania głos z fali akustycznej zostaje zamieniony na postać cyfrową, która z kolei zostaje podzielona na pakiety, proces ten ilustruje Rysunek 3.1.
Rysunek 3.1. Sposób transmisji głosu w technologii VoIP poprzez sieci teleinformatyczne

Źródło: Opracowanie własne na podstawie [15]

Powszechnie stosuje się kompresją głosu do postaci cyfrowej z przepływnością kanałową 6,4 kb/ s, która to zapewnia dziesięciokrotnie wyższą efektywność łącza oraz obniżenie kasztów w przypadku transmisji długodystansowej. Jednak w transmisji tej najważniejszym problemem wydaje się to, że w przeciwieństwie do danych głos musi być transmitowany w czasie rzeczywistym, co nie jest proste w realizacji.

Podsumowując do największych zalet technologii VoIP należą:

  • dziesięciokrotnie lepsze wykorzystanie pasma dla przesyłania głosu w czasie rzeczywistym,
  • oszczędność kosztów przy przesyłaniu faksów nawet do 40%,
  • bezpośrednia łączność użytkownika ze strony WWW z przedstawicielem handlowym – bez przymusu przerywania własnej sesji komputerowej.

Jeśli mówimy zaś o wady tej technologii to do największych należą:

  • jakość głosu w VoIP jest niższa niż w przypadku tradycyjnej telefonii przewodowej,
  • możliwość wystąpienia problemów związanych z gubieniem pakietów,
  • potrzeba instalacji przez dostawców urządzeń, które są zdolne do realizacji jednocześnie do tysięcy rozmów,
  • brak standardów dla współpracy urządzeń różnych producentów.

Jeśli jakaś firma decyduje się na zastosowanie tej technologii, to często w pierw¬szej fazie sieć oparta na VoIP działa obok tradycyjnej sieci telefonicznej. Będą to dwie odrębne sieci. W miarę upływu czasu poziom wykorzystywania technologii VoIP rośnie. Proces wprowadzania nowej technologii przebiega następująco:

☆ krok pierwszy – to dwie odrębne sieci: tradycyjna sieć telefoniczna oraz sieć komputerowa bazująca na łączach dzierżawionych, przedstawia to Rysunek 3.2;

Rysunek 3.2. Dwie sieci telefoniczne: tradycyjna oraz IP


Źródło: Opracowanie własne na podstawie [23]

☆ krok drugi – to podłączenie centrali PBX do routerów. W tym kroku nadal istnieją dwie niezależne sieci ale rozmowy mogą być już kierowane za pośrednictwem sieci pakietowej, przedstawia to Rysunek 3.3;

Rysunek 3.3. Przyłączenie central telefonicznych do routerów


Źródło: Opracowanie własne na podstawie [23]

☆ krok trzeci- to wymiana części telefonów POTS na telefony IP, a co za tym idzie pojawia się usługa Call Manager, przedstawia to Rysunek 3.4. Call Manager jest to oprogramowanie, które realizuje zadania jakie wykonywała tradycyjna lokalna centrala telefoniczna. Zestawia on połączenia pomiędzy dwoma telefonami IP lub też przy pomocy bramek między telefonem IP a telefonem tradycyjnym.

Rysunek 3.4. Częściowa wymiana i przełączanie telefonów


Źródło: Opracowanie własne na podstawie [23]

☆ krok czwarty – to całkowita zamiana telefonów tradycyjnych na telefony IP, które to mogą być zasilane przy pomocy zewnętrznego zasilacza lub przez sieć komputerową, przedstawia to Rysunek 3.5;

Rysunek 3.5. Całkowita zamiana telefonów tradycyjnych na telefony IP


Źródło: Opracowanie własne na podstawie [23]

☆ krok piąty – to ostatni krok, na tym etapie następuje usunięcie central PBX, a co za tym idzie cały ruch telefoniczny od tej chwili odbywać się będzie za pośrednictwem sieci IP, przedstawia to Rysunek 3.6 [13, 15, 25].

Rysunek 3.6. Usunięcie central PBX – rozmowy telefoniczne realizowane poprzez sieć IP


Źródło: Opracowanie własne na podstawie [23]

Rola informacji eksploatacyjnej na etapie wytwarzania

Informacja eksploatacyjna wykorzystywana na etapie wytwarzania obiektu, obejmuje głównie dane o uszkodzeniach spowodowanych tzw. przyczynami produkcyjnymi, tzn. np. wadami materiałowymi, niedociągnięciami obróbki mechanicznej i cieplnochemicznej oraz montażu.

W zbiorze informacji eksploatacyjnych, interesujących wytwórcę, wyróżnić można w sensie ogólnym:

  • grupę zagadnień dotyczących niezawodności elementów obiektu w aspekcie technologii wytwarzania,
  • grupę zagadnień dotyczących warunków eksploatacji obiektu.

Informacje tego rodzaju wykorzystywane są na etapie wytwarzania, do następujących celów:

  • zarządzania produkcją,
  • doskonalenia procesu wytwarzania (optymalizacji technologii),
  • organizowania kontroli jakości produkcji,
  • sterowania jakością produkcji,
  • doskonalenia systemu obsługi posprzedażnej (obsługi serwisowej),
  • opracowywania programów produkcji części zamiennych w ujęciu asortymentowym i ilościowym.

Na rysunku 3.3. przedstawiony jest schemat przepływu informacji pomiędzy producentem i użytkownikiem zaprezentowany w pracy [5] funkcjonujący w zakładach IBM Werk Sindelfingen.

Rys.3.3. Przepływ informacji zwrotnej do producenta [5]

 

Protokół TCP/IP

Protokół TCP/IP (ang. Transmission Control Protocol/Internet Protocol) jest pod­stawowym językiem komunikacji, protokołem Internetu. Ponadto może być używa­ny jako protokół komunikacyjny w sieciach prywatnych. Wymiana danych między węzłami sieci odbywa się z wykorzystaniem zbioru zasad zwanych protokołami, dzięki czemu każdy komputer podłączony do sieci może ustalić czy są mu dostęp­ne konkretne usługi sieciowe, między innymi dostęp do plików czy też możliwość sterowania drukowaniem. Protokoły korzystają ze specyficznych mechanizmów dla konkretnego systemu operacyjnego, które pozwalają na:

  • filtrowanie dostępu do sieci;
  • zarządzanie użytkownikami sieci;
  • przesyłanie plików;
  • obsługiwanie zdalnego logowania;
  • nawiązywanie połączeń internetowych.

Sam protokół TCP/IP skład się z kilku innych protokołów pokazanych na Rysun­ku 2.1, należą do nich między innymi:

TCP (ang. Transmission Control Protocol) – protokół sterowania transmisją. Zapewnia równoczesne i niezawodne transmitowanie wielopakietowych da­nych pomiędzy aplikacjami. Protokół ten jest stosowany w większości użyt­kowych programów internetowych;

UDP (ang. User Datagram Protocol) – protokół datagramów użytkownika. Zapewnia transmisje pojedynczych pakietów danych między aplikacjami. Nie jest jednak aż tak skomplikowany jak TCP oraz jest bardziej od niego zawodny;

Rysunek 2.1. Uproszczony czterowarstwowy model stosu TCP/IP

HTTP
FTP
Warstwa aplikacji
UDP
TCP
Warstwa transportowa
IP ICMP
ARP RARP
Warstwa sieciowa
ATM
Ethernet
Warstwa dostępu do sieci

Źródło: Opracowanie własne na podstawie [30]

IP (ang. Internet Protocol) – protokół międzysieciowy. Odpowiada za dorę­czenie dla protokołów TCP, UDP oraz ICMP odpowiednich pakietów. Służy do transmitowania danych pomiędzy dwoma głównymi komputerami;

ICMP (ang. Internet Control Massage Protocol) – protokół międzysieciowy ko­munikatów sterujących. Służy do przesyłania sieciowych zawiadomień o błę­dach, przesyła informacji sterujące pomiędzy stacjami a bramami oraz infor­muje o zdarzeniach, które wymagają od oprogramowania sieciowego inter­wencji;

ARP (ang. Address Resolution Protocol) – protokół odwzorowania adresów. Odpowiada za odwzorowanie adresów internetowych na sprzętowe. Nie jest stosowany we wszystkich sieciach;

RAPR (ang. Reverse Address Resolution Protocol) – protokół odwrotnego odwzorowania adresów. Odpowiada za odwzorowywanie adresów sprzęto­wych na internetowe. Podobnie jak protokół ARP nie we wszystkich sieciach jest stosowany.

Protokół TCP/IP nazywany jest również stosem protokołów ponieważ ma bu­dowę warstwową przedstawioną na Rysunku 2.1 i w skład niego wchodzą takie warstwy jak:

  • warstwa aplikacji – jest ona warstwą najwyższą. W warstwie tej pracują naj­ważniejsze z punktu widzenia użytkownika aplikacje takie jak komunikatory internetowe, czy też przeglądarka stron WWW. Występują tu gotowe proto­koły, które to są potrzebne aplikacją aby przesyłać w sieci dane (informacje). Do protokołów tej warstwy zaliczyć możemy między innymi HTTP, czy też FTP, z których to użytkownik korzysta na co dzień;
  • warstwa transportowa – jest odpowiedzialna za to aby dane zostały popraw­nie przesłane. Nadzoruje przesłanie konkretnych danych do właściwej aplika­cji. Dzięki temu że każda aplikacja posiada odrębny port nigdy nie dochodzi do niewłaściwego przekierowania danych, nawet jeśli na komputerze pracuje kilka aplikacji, które to komunikują się z drugim komputerem sieciowym. W warstwie tej występuje wiele protokołów, do najważniejszych należą UDP i TCP;
  • warstwa sieciowa – nazywana także warstwą internetową. Jej głównym za­daniem jest routing przesyłanych danych, poza tym decyduje o prawidłowej adresacji oraz odpowiada za pakowanie i diagnostykę przesyłanych danych. Najważniejszym protokołem tej warstwy jest IP, oprócz niego występują tu także: ICMP, NAT i inne;
  • warstwa dostępu do sieci – nazywana czasem warstwą interfejsu sieciowego. Jest najniższą spośród warstw protokołu TCP/IP. Nadzoruje fizyczne łączenie się urządzeń (karty sieciowe, modemy, itp.) w sieci [12, 21, 30].

Zakończenie pracy magisterskiej

Rozwój sieci komputerowych powoduje pojawianie się na rynku coraz to nowszy usług. W wyniku czego sieci te zaczynają wypierać starsze rozwiazania, jedną z takich usług jest VoIP, który coraz częściej jest stosowany zamiast tradycyjnej sieci telefonicznej. Rozwój sieci WLAN oraz niższe ceny sprzętu potrzebnego do jesgo inplementacji powodują, że sieci te są coraz częściej stosowane, stanowią alternatywę dla przewodowych sieci komputerowych, które nie wszędzie mogą być zastosowane. Sieci te stosowane są między innymi przez: organizacje handlowe, służbę zdrowia, ośrodki edukacyjne, itp.

Niniejsza praca został poświęcona projektowaniu lokalnych sieci komputero­wych, zarówno przewodowych jak i bezprzewodowych, wdrażając w nich techno­logię VoIP.

Pierwsza część mojej pracy zawiera informacje dotyczące zarówno samych sie­ci komputerowych, jak również zagadnień z nimi związanych. Informacje zawarte w rozdziale pierwszym poświęcone są sieciom przewodowym i bezprzewodowym. Przedstawiłam w nim sposoby konfiguracji sieci lokalnych (topologie sieci), kom­ponenty z jakich zbudowane są sieci LAN oraz WLAN. Omówiłam także standardy jakie używamy do budowy zarówno sieci przewodowych, czyli: Ethernet, Token Ring, FDDI, jak również bezprzewodowych, a mianowicie: 802.11a, 802.1b, 802.11g, 802.11n. W rozdziale drugim znajdują się informacje dotyczące protokołu TCP/IP, który jest najczęściej stosowanym protokołem w przypadku transmisji danych po­przez sieci komputrowe. Zaprezentowałam w nim dwa protokoły, a mianowicie protokól TCP, oraz protokół IPv4 i IPv6. Dodatkowo także przedstawiłam sposób adresowania urządzeń przy wykorzystaniu adresów IPv4 i IPv6. Trzeci rozdział opisuje technologię VoIP, pokazałam w nim sposób tansmisji głosu w oparciu o IP. Zaprezentowałam zarówno wady jak i zalety tej technologii, sposób wdrażania VoIP w firmach posiadających już tradycyjną sieć telefoniczną. W rozdziale tym opisałam także standary technologii VoIP oraz bezpieczeństwo jakie ta technologia zapewnia, w zalezności od zastosowanego stndardu.

Druga część pracy poświęcona jest projektowaniu sieci LAN i WLAN, część ta składa się z dwóch rozdziałów. Rozdział czwarty opisuje sposób projektowania sie­ci komputerowych LAN i WLAN. Zawiera on zarówno informacje dotyczące: wy­boru medium transmisyjnego, topologi fizycznej, topologii logicznej, jak również w przypadku sieci bezprzewodowych informacje o wyborze: AP, kanałów radio­wych oraz anten. W rozdziale tym opisałam sposób obliczania ilości potrzebnych punktów dostępowych oraz zasięgu sieci. Ostatni rozdział mojej pracy został po­święcony zaprojektowaniu sieci komputerowej w szkole podstawowej. W rozdziale tym zaprezentowałam w jaki sposób należy projektować sieci komputerowe.

Sieci komputerowe WLAN

Wiadomości wstępne

W sieciach LAN mamy do czynienia z fizyczną strukturą, w skład której wcho­dzą zarówno urządzenia sieciowe jak i okablowanie. W celu zmiany lokalizacji urządzania w sieci trzeba odłączyć je w jednym miejscu, a następnie podłączyć w innym. Rozbudowa sieci LAN często związana jest za zmianą infrastruktury istniejącego okablowania, co może okazać się kosztowne oraz czasochłonne. Dla­tego też coraz większą popularność zyskują bezprzewodowe sieci LAN (WLAN). Ceny urządzeń dostępowych oraz kart bezprzewodowych maleją,a co za tym idzie WLAN staje się alternatywą dla sieci przewodowych, poza tym proponuje więcej rozwiązań w zakresie mobilnego dostępu do usług oferowanych przez ISP (Inter­net Service Provider). Dzięki czemu znika problem zmiany lokalizacji urządzeń sieciowych, oraz rozbudowy sieci. WLAN zapewnia użytkownikom bezpieczny dostęp do wszelkich aplikacji oraz zasobów sieciowych z dowolnego miejsca i każ­dego urządzenia klienckiego. Sieci te oferują użytkownikom coraz szerszy zakres usług, między innymi telefonię, a także inne usługi czasu rzeczywistego. Co roku pojawia się kolejna aplikacja dostępna dla klientów sieci bezprzewodowych [23].

Bezprzewodowe lokalne sieci komputerowe powinny spełniać konkretne para­metry zapewniające właściwą jakość pracy sieci. Do parametrów tych należą:

  • bezpieczeństwo – sieci WLAN powinny zapewnić poufność przesyłanych da­nych, oczywiście jak w każdej sieci możliwe jest przechwycenie przesyłanych danych, lecz jest to czasochłonne. Jeśli chodzi o bezpieczeństwo to ważna jest integralność danych, czyli zabezpieczenie przesyłanych informacji przed zmianami w danych dokonanych przez nieupoważnione osoby. Dlatego przy przesyłaniu danych przez sieci bezprzewodowe stosuje się protokoły krypto­graficzne. Oprócz ochrony danych przed przechwyceniem czy też modyfika­cją, bardzo istotna sprawą jest dostępność. Ponieważ największym zagroże­niem dla sieci jest zablokowanie działania usług sieciowych. Z tego powodu aby połączyć się z punktem dostępowym należ najpierw uwierzytelnić się, proces ten jest szczególnie dokładny jeśli użytkownicy chcą mieć dostęp do chronionych zasobów systemu;
  • ekonomiczność – ze względu na cenę urządzeń bezprzewodowych, koszt in­stalacji sieci bezprzewodowej jest często nawet dwukrotnie wyższy od ce­ny sieci przewodowej, nie licząc okablowania. Jednak podliczając wszystkie koszty w tym także okablowanie pierwotnego, czy też cenę związaną z rekon- figuracją sieci kablowych, budowa bezprzewodowych sieci często jest tańsza;
  • elastyczność – związana jest z łatwą rekonfiguracją sieci, a co za tym idzie z liczbą stacji sieciowych oraz ich lokalizacją;
  • mobilność – zapewnia nam ciągłość połączenia, nawet wtedy gdy stacje sie­ciowe poruszają się. Istnieją oczywiście ograniczenia związane z mobilnością, a mianowicie poruszająca się stacja nie może zmienić podsieci gdyż wówczas nastąpi zerwania połączenia, drugi ograniczeniem, wymogiem jest aby poru­szająca się stacja nie zmieniała adresu IP przy zmianie punktu dostępowego;
  • niezawodność – podobnie jak sieci kablowe, sieci bezprzewodowe powinny posiadać taki sam poziom niezawodności, a co za tym idzie zapewniać transmisję nawet w przypadku, gdy węzły są niesprawne albo parametry poszczególnych kanałów pogorszyły się. Zapewnienie takiej niezawodności nie jest łatwe ponieważ WLAN pracuje przy mniejszym stosunku sygnału do szumu (S/N) niż sieci kablowe. Konieczna jest jednak stopa błędu poniżej 10;
  • przepustowość – sieci bezprzewodowe powinny oferować podobne prędko­ści transmisji jak sieci przewodowe. Obecnie istniejące sieci WLAN oferują transmisję danych z prędkością do 54 Mb/s;
  • przezroczystość – określa współpracę sieci przewodowych i bezprzewodo­wych, przy czym użytkownik nie powinien zauważyć różnicy w jakości dzia­łania sieci przy współpracy z każdą z nich (LAN i WLAN) [13, 23].
  • Standardy sieci bezprzewodowych

W 1999 IEEE zatwierdził opracowany standard 802.11 (bezprzewodowej sieci lo­kalnej). Standard ten pracując w paśmie częstotliwości 2.4 GHz gwarantował prze­pływność rzędu 1 lub 2 Mb/s.

Standard ten określa trzy „rodzaje” warstwy fizycznej:

  • DSSS (ang. Direct Sequence Spread Spectrum) – czyli fale o paśmie częstotli­wości 2.4 GHz z rozpraszaniem widma metodą kluczowania bezpośredniego. Fizyczna transmisja może zachodzić przy użyciu każdej modulacji cyfrowej, jednak przy prędkości 1 Mb/s używa się DBPSK (ang. Differential Binary Phase Shift Keying, czyli binarne kluczowanie fazy), a przy 2 Mb/s stosuje się DQPSK (ang. Differential Quadrature Phase Shift Keying, czyli kwadra- turowe kluczowanie fazy);
  • FHSS (ang. Frequency-Hopping Spread Spectrum) – czyli fale o paśmie czę­stotliwości 2.4 GHz z rozpraszaniem widma metodą przeskoków częstotliwo­ści. Pozwala on na pracę kilku systemów w tym samym paśmie częstotliwości.

Przy prędkości 1 Mb/s używa się 2-GFSK (ang. Gaussian Frequency-Shift Keying, czyli binarne kluczowanie częstotliwości), natomiast przy 2 Mb/s stosuje się 4-GFSK (kwadraturowe kluczowanie częstotliwości);

  • IR (ang. Infrared) – czyli fale optyczne z zakresu podczerwieni o długościach z zakresu 750-1500 nm. Warstwą tą nie będę się zajmowała, ponieważ bez­przewodowa transmisja optyczna (podczerwień) stanowi obecnie oddzielne zagadnienie [13].

Prace nad sieciami bezprzewodowymi doprowadziły do stworzenia kolejnych stan­dardów 802.11, a mianowicie:

802.11b – standard zatwierdzony w 1999 roku. Jakość 802.11b zapewnia wyższą prędkość przesyłu danych, niż utworzony protokół 802.11. Prosta architektu­ra, właściwości i obsługa 802.11b zostały zdefiniowane w oryginalnym stan­dardzie 802.11, zmiany zostały wprowadzone tylko w warstwie fizycznej, dodając większą przepływność i spójność. Kluczem do współpracy 802.11b (udoskonalonym standardem bezprzewodowej sieci lokalnej) ze standardem WLAN (802.11) była standaryzacja warstwy fizycznej wspierającej dwie no­we przepływności 5.5Mb/s i 11 Mb/s. 802.11b WLAN stosuje dynamicz­ną zmianę prędkości, pozwala aby prędkość transportowanych danych by­ła automatycznie dostosowywana aby rekompensować interferencje oraz za­sięg kanałów radiowych. Idealne połączenie zapewnia pełną przepływność 11 Mb/s. Jednakże kiedy urządzenie przemieszcza się poza optymalny zasięg dla pracy standardu z prędkością 11Mb/s, lub jeśli występują znaczne inter­ferencje, urządzenia 802.11b będą transmitowały dane wolniej, wracając do przepływności 5.5, 2 lub 1 Mb/s. Ponadto, jeżeli urządzenie znowu znajdzie się w optymalnym zasięgu przepływność automatycznie wzrośnie.

Jak już wspomniałam wcześniej w standardzie tym wprowadzono zmiany w warstwie fizycznej zwiększając tym samym prędkość transmisji, jednak­że podobnie jak 802.11 pracuje on w paśmie częstotliwości 2.4 GHz. Pasmo to zostało podzielone na 14 22 MHz kanałów, choć tylko 3 z nich nie po­krywają się zakresami. W wielu krajach, w tym także w Polsce dozwolone jest bez licencji używanie tylko pasma z przedziału 2.4000 – 2.4835 GHz, co odzwierciedla kanały od 1 do 13.

Sieci te używają rozpraszanie widma za pomocą kluczowania bezpośrednie­go DSSS, która to została przedstawiona na stronie 23. W standardzie tym została zdefiniowana nowa metod modulacji, a mianowicie CCK (ang. Com- plementary Code Keying modulation) [13];

802.11a – standard zatwierdzony w 1999 roku. Jednak urządzenia dla niego pojawi­ły się dopiero w 2001r. Podobnie jak w 802.11b, w tym standardzie nastąpiła zmiana w warstwie fizycznej w stosunku do 802.11. Rezygnuje całkowicie z pasma częstotliwości 2.4 GHz na rzecz 5GHz. W 802.11a zdefiniowana zo­stała nowa technika modulacji danych OFDM (ang. Orthogonal Frequency Division Multiplexing). Choć specyfikacja ta w Europie jest niedozwolona, ponieważ pasmo 5 GHz zostało zarezerwowane dla sieci HiperLAN, w Sta­nach Zjednoczonych jest wdrażana.

Nominalną przepływność wynosi 54 Mb/s, ale podobnie jak w przypadku 802.11b, może ona ulec zmniejszeniu. Dopuszczalne prędkości transmisji w tym standardzie to : 48, 36, 34, 18, 12, 9 i 6 Mb/s [13];

802.11g – standard zatwierdzony w 2003 roku. 802.11g jest wynikiem zsumowa­nia zalet wcześniej powstałych standardów. Podobnie jak 802.11b pracuje on w paśmie częstotliwości 2.4 GHz (nie wymaga zezwolenia), lecz z nominalną przepływnością 54Mb/s, tak jak w 802.11a. Jedną z głównych zalet 802.11g jest kompatybilność wsteczna, co oznacza że do usług tego standardu dostęp posiadają również użytkownicy z kartami WLAN 820.11b. 802.11g wyko­rzystuje wiele rodzajów transmisji danych, łącząc w ten sposób zalety obu wcześniejszych standardów [23];

802.11n – standard nad który trwają prace. Ma on być kompatybilny z 802.11a, jednak ma zapewnić większą przepływność rzędu 100 a nawet 250 Mb/s. Podobnie jak 802.11a będzie on wdrożony w Stanach Zjednoczonych, gdyż jak już wcześniej wspomniałam w Polsce pasmo 5 GHz jest zabronione [23].

Elementy sieci

Podobnie jak w sieciach przewodowych występują tu switche, routery, itp. Jednak WLAN charakteryzuje się także własnymi urządzeniami, do których należą: anteny i punkty dostępowe.

Anteny – w sieciach bezprzewodowych stosuje się różne anteny w zależności od planowanego pokrycia terenu. Decydując się na konkretną antenę należy wziąć pod uwagę kilka jej parametrów: rodzaj anteny, zysk anteny, kąt poło­wy mocy. Obecnie możemy wyróżnić kilka rodzajów anten:

  • Antena pionowa – antena dookólna, dobrze promieniuje w płaszczyźnie horyzontalnej. Oferowane na rynku anteny różnią się przede wszystkim zyskiem i tak można spotkać anteny o zysku od 3dBi aż do 10 dBi. Im większy zysk anteny, tym jej charakterystyka jest bardziej płaska;
  • Dipol – jej charakterystyka promieniowania ma kształt cyfry 8, fizycznie nie różni się specjalnie od anteny dipolowej i w rzeczywistości niektóre anteny pionowe to pionowo zamontowane dipole;
  • Antena Yagi – antena jednokierunkowa, wygląda podobnie jak antena telewizyjna. Skład się z kil-ku elementów metalowych przymocowanych pod odpowiednim katem do wspornika. Elementy te nie są zwykle widoczne, gdyż są umieszczane w plastikowej ochronnej kopułce. Zysk tych anten mieści się w przedziale od 12 do 18 dBi;
  • Anteny paraboliczne – anten tych ze względu na bardzo duży zysk kie­runkowy (nawet do 24 dBi), a co za tym idzie bardzo mały kat połowy mocy (od zaledwie 6,5 stopnia) nie stosuje się do obsługi użytkowni­ków, ale do tworzenia łączy między budynkami. Ustawienie kierunku takich anten stwarza dużo trudności. Anteny te można wykorzystywać przy odległościach nawet do 30km jeśli na obu końcach łącza użyjemy podobnych anten [5].

Punkty dostępowe – ang. Access Point (AP). Punkt dostępowy umożliwia dołą­czenie wielu użytkowników sieci bezprzewodowej, a także łączenie podsie­ci Ethernet nie stosując dodatkowych urządzeń, jeśli wykorzystamy ante­ny zewnętrzne o dużym zasięgu. AP mogą również pełnić funkcję mostu i zwiększać zasięg radiolinii. Access Pointy mają także wiele innych funk­cji. Ważną właściwością AP jest możliwość konfiguracji zarówna poprzez WWW jak i oprogramowanie SNMP, które to jest lepszym rozwiązaniem, gdy mamy kłopoty z łącznością. Punkt dostępowy daje możliwość autory­zacji użytkowników przy wykorzystaniu listy MAC, która to jest zmieniana przez administratora sieci. Dzięki takiemu rozwiązaniu dostęp do sieci mają tylko użytkownicy, których adres MAC umieszczony został na access liście danego punktu dostępowego [29].

Rozdział pierwszy zawira wstepne informacje dotyczące sieci LAN i WLAN. Przedstawiłam w nim sposoby konfiguracji sieci lokalnych (topologie sieci), kom­ponenty z jakich zbudowane są sieci LAN oraz WLAN. Omówiłam także standardy jakie używamy do budowy zarówno sieci przewodowych, czyli: Ethernet, Token Ring, FDDI; jak również bezprzewodowych, a mianowicie: 802.11a, 802.1b, 802.11g, 802.11n.

Sprzężenia informacyjne pomiędzy procesami projektowania, wytwarzania i eksploatacji

Każde urządzenie przechodzi następujące fazy: projektowanie, wytwarzanie i eksploatacja.

Eksploatacja jest to proces, który przebiega od chwili wytworzenia urządzenia do chwili jego likwidacji (złomowania). Pomiędzy poszczególnymi fazami istnienia urządzenia powinny występować następujące sprzężenia informacyjne:

Rys 3.1. Sprzężenia informacyjne pomiędzy procesami projektowania wytwarzania i eksploatacji

Funkcjonujące w rzeczywistości sprzężenia nazwano „mocnymi”. Występują one pomiędzy projektantem a wytwórcą w postaci przekazywanej dokumentacji konstrukcyjnej i technologicznej urządzenia.

Następnie sprzężenia te występują pomiędzy projektantem a użytkownikiem (eksploatatorem urządzenia) często za pośrednictwem wytwórcy, w postaci:

  • wytycznych eksploatacyjnych,
  • danych i zaleceń zawartych w dokumentacji techniczno- ruchowej DTR.

Przepływ informacji w kierunku przeciwnym, nazwany sprzężeniem „słabym”, występuje najczęściej w okresie gwarancyjnym urządzenia pomiędzy użytkownikiem a wytwórcą.

Tworzenie SIE ma na celu wzmocnienie „słabych” sprzężeń informacyjnych.

Organizacja systemów informacji eksploatacyjnej (SIE) ma na celu zapewnienie okresowo ciągłego dopływu informacji eksploatacyjnej dla potrzeb doskonalenia procesów projektowania, wytwarzania i eksploatacji maszyn poprzez realizację informacyjnych sprzężeń zwrotnych między tymi procesami.

Sieci przewodowe

4.2.1. Struktura fizyczna

Struktura fizyczna sieci może być zbudowana w oparciu o różnorodne topologie. Zastosowanie niektórych urządzeń sieciowych wymusza zastosowanie konkretnej struktury. Dzieje się tak między innymi wtedy, gdy urządzenie nie posiada wystarczającej liczby interfejsów, co wiąże się z zastosowaniem kilku takich urządzeń. Jednak ustalając strukturę przyszłej sieci, jako główne kryteria należy wziąć pod uwagę warunki fizyczne oraz ekonomiczne.

Pierwszym krokiem jaki należy wykonać przy ustalaniu struktury sieci jest wybranie topologii, proces ten omówiłam Rozdziale 4.1.3. Kiedy już wiadomo jaka topologia będzie wdrażana (musi ona być możliwa do realizacji w danym budynku, na danym terenie, itp.), następnym krokiem jest wybór sprzętu niezbędnego do poprawnej, a zarazem bezpiecznej komunikacji pomiędzy przyszłymi użytkownikami sieci. W tym właśnie momencie może się okazać, że topologia jaka została wybrana nie jest w pełni słuszna. Zanim więc kupimy sprzęt ważne jest, aby to sprawdzić i wprowadzić ewentualne zmiany w strukturze sieci. W wyniku tych działań okazać się może, że powstała struktura, która zawiera w sobie kilka topologii. W praktyce jest to dość często spotykane zjawisko.

4.2.2. Struktura logiczna

W trakcie projektowania struktury logicznej sieci komputerowej, podstawową rzeczą jest adres IP urządzenia, za pośrednictwem którego klient będzie łączył się z Internetem. Usługa ta gwarantowana jest przez dostawcę Internetu, który to przyznaje adres IP z pośród swojej puli adresowej.

Przydzielenie adresów w obrębie projektowanej sieci należy do administratora. Przy ustalaniu adresów poszczególnych urządzeń korzysta się z tak zwanej puli prywatnych adresów IP, które to mogą być stosowane tylko w sieciach lokalnych. Do adresów tych należą:

  • 10.0.0.0 – 10.255.255.255 – sieci prywatne klasy A,
  • 172.16.0.0 – 172.31.255.255 – sieci prywatne klasy B,
  • 192.168.0.0 – 192.168.255.255 – sieci prywatne klasy C.

Adresy te są routowalne, jednak nie mogą pojawić się w publicznej sieci, dlatego też urządzenie podłączone do sieci Internat (np. router), tak zwany serwer sieciowy, dynamicznie konwertuje adres prywatny na adres zewnętrzny, za pomocą którego użytkownik może korzystać z zasobów Internetu. Serwerem sieciowym nie może być urządzenie, które ma przydzielony adres prywatny. Wyjątek stanowi urządzeni, w który użyto technikę maskowania docelowych adresów (DNAT ) Dla przykładu dla sieci przedstawionej na Rysunku 4.14 zastosowałam adresy IP z prywatnej puli adresów klasy C – 192.168.12.0/24.

Rysunek 4.14. Przykładowa sieć komputerowa

Źródło: Opracowanie własne

API :sx AP2 AP3 ss:

Adresacja IP urządzeń z powyższego rysunku przedstawia się następująco:

*    192.168.12.1 – interfejs routera

*    192.168.12.2    –    switch

*    192.168.12.3    –    AP1

*    192.168.12.4    –    AP2

*    192.168.12.5    –    AP3

*    192.168.12.6    –    AP4

*    192.168.12.7    –    serwer    DHCP

*    192.168.12.8    –    serwer    FTP

*    192.168.12.9    –    serwer    WWW

*    192.168.12.10A192.168.12.254 – hosty

Serwer DHCP dynamicznie przydziela adresy IP, w zależności od obecności użytkowników w sieci. Zastosowany schemat adresacji pozwala na zaadresowanie 254 urządzeń.

Topologia sieci (architektura) lokalnej

Topologia sieci (architektura) określa jej właściwości „geometryczne” (tzn. sposób połączenia węzłów sieci), co wpływa bezpośrednio na możliwości i efektywność transmisji danych między węzłami, a także określa podatność sieci na uszkodzenia.

Rozróżniamy trzy główne topologie:

– topologia szynowa (magistrali)

W topologii szynowej sieć tworzy pojedynczy kabel, a wszystkie komputery (węzły) są po prostu do niego przyłączone (rys. 2.11.). Informacja jest przesyłana z węzła w dwóch kierunkach. W skrócie praca węzłów polega na tym, że każdy z nich odczytuje adresy danych płynących po magistrali i odbiera dane po rozpoznaniu tylko swojego adresu. Każdy koniec kabla jest zakończony terminatorem – po osiągnięciu końca kabla sygnały są wygaszane i nie powracają do magistrali.

Rys. 2.11. Topologia magistrali

Zalety: wymaga mniejszej długości kabla, prosty układ okablowania, architektura jest elastyczna-prostota czyni ją niezawodną, łatwe rozszerzanie sieci.

Wady: trudna diagnostyka i lokalizacja błędów (uszkodzeń), przy dużym ruchu w sieci magistrala staje się wąskim gardłem.

– topologia pierścieniowa

Jest to sieć pierścieniowa, która łączy komputery (węzły) poprzez zamkniętą linię tworzącą krąg (rys. 2.12.a). Każdy węzeł włączony do pierścienia działa jak wzmacniacz. Dane poruszają się w pierścieniu w jednym kierunku przechodząc przez każdy węzeł. W praktyce pętla ta jest realizowana w jednostce wielokrotnego dostępu (Multiple Access Unit – MAU), a wszystkie węzły połączone są do tej jednostki tworząc gwiazdę (rys. 2.12.b, topologia pierścieniowo-gwiaździsta).

Rys. 2.12. Topologia pierścieniowa a) bez jednostki MAU b) z jednostką MAU

a)                                                                                        b)

 Zalety: sieci bez MAU- całkowita długość kabla jest mniejsza, nie wymaga specjalnej szafki do łączenia kabli; sieci z MAU- diagnostyka i lokalizacja błędów jest stosunkowo łatwa a modułowa konstrukcja umożliwia łatwą rozbudowę.

Wady: awaria pojedynczego węzła pociąga za sobą awarię całej sieci, trudniejsza diagnostyka uszkodzeń i modyfikacja oraz rekonfiguracja; sieć z MAU- złożony system okablowania.

– topologia gwiazdy

W tym rozwiązaniu wszystkie komputery (węzły) sieci podłączone są do jednego centralnego punktu (rys.2.13.) – hub, koncentrator. Jego zadaniem jest komutowanie (rozdzielanie) sygnałów, przychodzących od poszczególnych węzłów.

Zalety: łatwa modyfikacja, rozbudowa, lokalizacja uszkodzeń, scentralizowana kontrola.

Wady: większa ilość kabla, złożony system okablowania, wzrost ceny, centralny hub.

Rys. 2.13. Topologia gwiazdy

Źródło: Opracowanie własne

Algorytm MIT

podrozdział tej pracy magisterskiej powstał na podstawie następującej literatury:

[1] Raj Jain, „Congestion Control And Traffic Management In ATM Netowrks: Recent Advances and A Survey”

[3] Kai-Yeung Siu, Hong-Yi Tzeng: “Intelligent Congestion Control for ABR Service in ATM Networks”

[4] Fang Lu, “ATM Congestion Control”

[11] Dorgham Sisalem, Henning Schulzrine, „Switch Mechanisms for the ABR Service: A comparison Study” 

Po raz pierwszy algorytm MIT został zaproponowany przez Anna Charny z Massachusetts Institute of Technology (MIT).

Algorytm ten do obliczenia współczynnika fairshare używa procedury iteracyjnej. Najpierw, współczynnik fairshare obliczany jest poprzez podzielenie dostępnego pasma przepustowego przez ilość aktywnych kanałów wirtualnych. Wszystkie kanały, które transmitują dane z prędkością poniżej obliczonego współczynnika fairshare, są zwane „underloading VC”. Jeżeli liczba kanałów „underloading VC” zwiększa się z iteracją, współczynnik fairshare jest obliczany według wzoru:

Procedura ta powtarzana jest dopóki nie osiągnie się stanu stabilnego, gdzie liczba „underloading VC” i współczynnik fairshare nie będzie się zmieniał. Anna Charny pokazała w swojej pracy, że zwykle dwie iteracje wystarczą do osiągnięcia zadawalającego rezultatu. Jednak mogą wystąpić sytuacje, dla których obliczenie współczynnika fairshare składać się będzie z n operacji, gdzie n jest liczbą kanałów wirtualnych. Dla przełączników ATM, które obsługują tysiące kanałów wirtualnych, liczba obliczeń koniecznych do wykonania stanie się bardzo duża i nie może być wykonana na dostępnym dzisiaj sprzęcie.