Category Archives: prace dyplomowe

prace dyplomowe z informatyki

Wybór kryteriów szczegółowych

W celu wyboru odpowiednich kryteriów szczegółowych należy zastanowić się, jakie parametry dotyczące poziomu życia nas interesują. W tym miejscu pojawia się pierwszy problem, jaki napotykamy, a mianowicie subiektywizm tego wyboru. Ludzie przy ocenie jakości życia w określonym miejscu kierują się różnymi czynnikami, np. liczba miejsc w teatrach, liczba lekarzy, średnia płaca w wybranym mieście, itp. Niestety należy wybrać te kryteria, które mają dla nas znaczenie, w ten sposób ogranicza się do pewnego stopnia możliwość analizy poziomu życia dla innych osób o innych potrzebach. Podczas doboru kryteriów można napotkać na następujące problemy:

  • nierównoważność kryteriów: część kryteriów jest bardziej istotna, a część mniej istotna,
  • część kryteriów jest w stosunkach antagonistycznych, oznacza to, że ulepszenie jakiegoś kryterium spowoduje automatycznie pogorszenie innego,
  • kryteria szczegółowe dzielą się najczęściej na dwie grupy: kryteria ilościowe (np. średnia płaca na danym terenie), kryteria jakościowe – oszacowywane na podstawie ocen ekspertów z danych dziedzin (np. ocena stopnia ryzyka danej inwestycji). W tym drugim wypadku powstaje problem właściwego ustalenia wartości dla danego kryterium – oceny poszczególnych ekspertów mogą się od siebie różnić, czasami nawet znacząco, dlatego kryteria z grupy jakościowych są obarczone dużym stopniem subiektywizmu,
  • ilość kryteriów może być zbyt duża przez co trudne staje się oszacowanie, które z parametrów są ważniejsze, a które mniej ważne.

W przypadku analizy poziomów życia w poszczególnych województwach wykorzystywane są tylko kryteria ilościowe, dzięki czemu udało się zmniejszyć stopień subiektywizmu kryteriów szczegółowych.

Kryteria szczegółowe podzielono na sześć kategorii:

  • zdrowie,
  • finanse,
  • infrastruktura,
  • czystość,
  • praca,
  • przestępczość,

W kategorii zdrowie umieszczono kryteria:

  • lekarze, kryterium to oznacza liczbę lekarzy na 10 tys. ludności,
  • łóżka szpitalne, oznaczające ilość łóżek szpitalnych na 10 tys. ludności,

W kategorii finanse umieszczono kryteria:

  • środki trwałe, kryterium to oznacza wartość brutto środków trwałych w przeliczeniu na jednego mieszkańca danego województwa,
  • produkt krajowy brutto – wartość produktu krajowego brutto w zł. w przeliczeniu na jednego mieszkańca,
  • dochody – wartość nominalnych dochodów brutto w sektorze gospodarstw domowych w zł. na jednego mieszkańca.

Kategoria infrastruktura zawiera następujące kryteria:

  • kolej – linie kolejowe eksploatowane normalnotorowe w km na 100 km2 powierzchni ogólnej,
  • drogi – drogi publiczne o twardej nawierzchni w km na 100 km2 powierzchni ogólnej województwa,
  • sklepy – ilość sklepów w danym województwie w przeliczeniu na 10 tys. ludności,

Następną kategorią jest czystość i zawiera następujące kryteria:

  • oczyszczalnie – ludność korzystająca z oczyszczalni ścieków w procentach ludności ogółem,
  • emisja gazów – emisja przemysłowych zanieczyszczeń powietrza gazowych i pyłowych z zakładów szczególnie uciążliwych dla czystości powietrza w tys. ton na 1 km2 powierzchni województwa,
  • lesistość – powierzchnia gruntów leśnych w procentach powierzchni całkowitej województwa,

Kategoria praca zawiera następujące kryteria:

  • pracujący – liczba osób zatrudnionych w przeliczeniu na 10 tys. ludności w danym województwie,
  • bezrobotni – liczba zarejestrowanych bezrobotnych w przeliczeniu na 10 tys. ludności w danym województwie,
  • średnia płaca – przeciętne miesięczne wynagrodzenie brutto w zł. w danym województwie,

Ostatnią kategorią jest przestępczość, która zawiera kryteria:

  • przestępstwa – ilość przestępstw stwierdzonych w zakończonych
  • postępowaniach przygotowawczych na 10 tys. ludności,
  • wskaźnik – wskaźnik wykrywalności sprawców przestępstw stwierdzonych w procentach.

Informatyzacja ZUS-u

Proces informatyzacji ZUS-u może być przykładem jak nie należy prze­prowadzać takich przedsięwzięć w sektorze administracji publicznej [33].

Wy­nikiem projektu było doprowadzenie niemal do monopolizacji rynku infor­matycznego za pieniądze podatników.[1]

Założeniem było ujednolicenie syste­mu na terenie całego kraju, co w rzeczywistości sprowadziło się do wdroże­nia rozwiązania jednego producenta. Dodatkowo, zawarcie niejasnych umów handlowych,[2] odebrało klientom ZUS-u autonomię i możliwość wyboru oraz wymuszało kupno platformy systemowej zagranicznej firmy Microsoft. Jest to oczywistym pogwałceniem praw podatników, zmuszonych do korzystania z systemu informatycznego, połączonym z niegospodarnością w wydawaniu publicznych funduszy. Powoduje to także odpływ pieniądza za granicę i do­prowadza do zjawiska wykupywania przez polskie społeczeństwo własnych miejsc pracy,[3] stawiając się tym samym na pozycji biednego konsumenta.

Instytucja publiczna, jaką niewątpliwie jest ZUS, powinna mieć na uwa­dze przede wszystkim dobro społeczne. Realizacja tak dużego przedsięwzię­cia stwarza olbrzymie możliwości wpływania na rynek technologii informa­cyjnych w Polsce. Upublicznienie protokołów komunikacyjnych oraz posta­wienie wymogu otwartości projektu, zamiast ujednolicenia systemu i przy­zwolenia na zamknięcie, wywołałoby szereg pozytywnych zjawisk.

Na rynku w ramach swobodnej konkurencji powstałyby aplikacje klienckie służące do rozliczeń z urzędem, o których rozwoju decydowałaby przydatność rynkowa i potrzeby użytkowników. Podatnik posiadałby możliwość wyboru spośród rożnych rozwiązań i różnych platform systemowych, nie byłby zmuszany do kupna programów firmy Microsoft[4] oraz dzięki otwartemu kodu źródłowe­mu, zyskałby autonomię. Dodatkowo, powstałby rynek usług, związanych z tak wdrożonym projektem informatycznym, oparty na wolnej konkuren­cji. W efekcie, publiczne fundusze zostałyby efektywniej rozdysponowane, podatnik otrzymałby lepszy produkt i więcej przywilejów, zaś jego pieniądz pozostałby w kraju i przyczyniłyby się do powstania nowych miejsc pracy. [4] [5]


[1]Pojawił się nieoficjalny, otwarty projekt Janosik (janosik.net), mający na celu dostarczenie użytkownikowi niezależnej aplikacji do rozliczania się z urzędem, działa­jącej na każdej platformie. Jednak z powodu polityki ZUS-u, twórcy programu, nieustannie borykają się z problemami formalno-prawnymi.

[2]Chodzi tu przede wszystkim o zamknięcie protokołów komunikacyjnych w systemie oraz faworyzowanie rozwiązań firmy Microsoft.

[3]Zjawisko nazwane zostało efektem Wal-Marta i jest wynikiem obserwacji wpływu hi­permarketów na lokalne rynki [34].

[4] Jako platformę systemową dla aplikacji klienckiej mógłby zostać wybrany otwarty [5] pozbawiony opłat licencyjnych system GNU/Linux.

Popularne sieciowe systemy operacyjne

praca dyplomowa z początku wieku

Każda, nawet najlepiej zaprojektowana i wykonana sieć nie będzie działała bez zastosowania jednego z wielu dostępnych obecnie sieciowych systemów operacyjnych, które stanowią podstawę działania serwerów.

Do zadań sieciowych systemów operacyjnych należy udostępnianie w sieci plików i katalogów, wspólnych drukarek, modemów, zmieniaczy płyt CD-ROM, aplikacji oraz baz danych. Korzystanie z poszczególnych zasobów jest zwykle regulowane przez nadanie użytkownikom i stacjom roboczym odpowiednich praw dostępu. Ponadto system sieciowy powinien zapewniać możliwość porozumiewania się użytkowników ze sobą oraz pozwalać na korzystanie z usług internetowych, przy zapewnieniu bezpieczeństwa zasobów lokalnych.

Zadania te są wypełniane przez różne systemy w różny sposób i na rozmaitym poziomie. Dobór najbardziej odpowiedniego zależy od charakteru zastosowań, którym będzie służyła dana sieć lokalna, a także od jej wielkości, mierzonej liczbą serwerów i stacji roboczych.

Do najbardziej znanych należą: NetWare firmy Novell, Windows NT Server Microsoftu oraz Linux należący do rodziny systemów UNIX-owych.

UNIX

Jest to system najstarszy i najtrudniejszy do opanowania, a jednocześnie oferujący ogromne możliwości konfiguracyjne, bardzo wysoki poziom zabezpieczeń przed nieautoryzowanym dostępem do zasobów sieci oraz niespotykaną w innych systemach stabilność pracy. Jest powszechnie stosowany na serwerach internetowych. Pracuje on w trybie znakowym czyli tak jak znany chyba wszystkim Microsoft DOS. Jest przeznaczony wyłącznie dla sieci Client-Server.

UNIX zaprojektowany jest pod kątem obsługi dużych serwerów. Ma wbudowane mechanizmy do pracy w sieci, jest wielozadaniowy (wykonuje wiele programów jednocześnie) i wielodostępny (wielu użytkowników na raz). W instalacjach sieciowych bazujących na platformie UNIX-owej realizuje się współdzielenie zasobów dyskowych i urządzeń peryferyjnych, obsługę wielu zaawansowanych aplikacji o architekturze klient-serwer. System może być wyposażony w narzędzia bezpieczeństwa – od haseł użytkowników i sterowanych praw dostępu do zasobów, po szyfrowane kanały komunikacyjne, w których przesyłane przez łącza sieciowe dane są kodowane przed wysłaniem przez jeden z komputerów i dekodowane po odebraniu przez drugi, co zapobiega „podsłuchiwaniu” przez hackerów.

UNIX sprzedawany jest zazwyczaj wraz z komputerami, często w ramach całościowej instalacji sieciowej „pod klucz”. Służy wówczas do obsługi sieci i aplikacji typu bazy danych. Najbardziej znane oprogramowanie obsługujące bazy danych w architekturze klient-serwer, jak na przykład produkty firm Oracle czy Informix, posiada implementację na wszystkie platformy UNIX-owe. Pod kontrolą UNIX-a pracują zwykłe pecety oraz najpotężniejsze na świecie, wieloprocesorowe superkomputery.

UNIX jest standardowo wyposażony w narzędzia komunikacyjne, a jego włączenie do sieci jest stosunkowo proste, przy czym nie ma znaczenia czy jest to sieć lokalna, czy Internet. Administrator UNIX-a musi posiąść sporą porcję wiedzy o systemie. Specyfika poszczególnych odmian UNIX-a, zwłaszcza na poziomie zaawansowanych narzędzi do zarządzania powoduje, że niemal każdej odmiany systemu trzeba się osobno nauczyć.

Sieci oparte na serwerach UNIX-owych stosowane są w dużych, bogatych firmach i instytucjach. W wersjach komercyjnych są to rozwiązania kosztowne. Jednak UNIX potrafi efektywnie wykorzystać moc i szybkość przetwarzania silnych maszyn, zaś serwery oferują wysoką stabilność i niezawodność pracy, co ma istotne znaczenie w niektórych zastosowaniach.

Linux

Młodszy „brat” UNIX’a. Oferuje bardzo zbliżone możliwości, a jednocześnie jest o wiele łatwiejszy w obsłudze i konfiguracji. Został zaprojektowany przez jednego ze studentów informatyki na uniwersytecie w Oslo – Linusa Torvaldsa, który opublikował rezultaty swojej pracy w Internecie i udostępnił kod źródłowy systemu wszystkim zainteresowanym jego dalszą rozbudową. Dzięki temu Linux stał się najszybciej i najczęściej aktualizowanym systemem operacyjnym na świecie. Jego wersja instalacyjna jest legalnie dostępna w Internecie całkowicie za darmo (pomijając koszt pobrania kilkudziesięciu MB).

Tak jak UNIX, Linux znany jest z wysokiej niezawodności i stabilności pracy. Jest systemem wieloużytkownikowym i wielozadaniowym. Na pojedynczym serwerze może, za pomocą terminali, pracować wielu użytkowników. System autoryzacji, sterowanie dostępem za pośrednictwem nadawanych praw, szyfrowanie zdalnych transmisji sprawiają, że poprawnie skonfigurowany system zapewnia bardzo wysoki stopień ochrony danych. Dodatkowo system szczelnego izolowania wykonywanych na serwerze zadań sprawia, że nawet przy znacznej ilości pracujących jednocześnie użytkowników Linux pracuje niezwykle stabilnie.

Linux jest oprogramowaniem darmowym, rozprowadzanym na zasadzie licencji GPL (General Public License). Oznacza to, że do wersji wykonywalnych dołączone są pliki źródłowe i każdy, jeśli oczywiście potrafi, może sobie w dowolny sposób zmodyfikować każdą aplikację. Do funkcjonowania systemu oraz wygodnej pracy potrzebne są programy użytkowe, aplikacje dla serwera i interfejs graficzny X Window. Wszystkie te elementy zebrane razem i tworzące działającą wersję nazywa się dystrybucją. Jest wiele dystrybucji Linuxa (co najmniej kilkanaście), z czego najważniejsze to: RedHat, S.u.S.e., Slackware, Debian i Caldera.

W okresie początków Linuxa w Polsce najczęściej używaną jego wersją była dys­trybucja Slackware. Jednak jej znaczenie w dniu dzisiejszym spadło. Obecnie obser­wujemy dwa przeciwstawne kierunki roz­wojowe. Z jednej strony istnieją dystrybu­cje zorientowane komercyjnie, mające zdobyć część rynku systemów UNIX-owych. Ciągle są one dużo tańsze niż renomowa­ne produkty, a jednocześnie porównywal­ne pod względem funkcjonalności. Do­datkowo dzięki zastosowaniu jądra (ang. Kernel) Linu­xa działają one na prawie każdym sprzęcie PC oraz nie wymagają zbyt wielu zaso­bów systemowych. Najlepszym przykła­dem tego kierunku są dystrybucje firmy Caldera.

Na przeciwległym końcu znajdują się pakiety bezpłatne, będące efektem pracy programistów, którzy w ten sposób chcą propagować ideę bezpłatnego oprogra­mowania. Tworzą oni dystrybucje nieko­mercyjne, które służą głównie idei szero­kiego rozpowszechnienia Linuxa. Wśród nich na pierwszym miejscu należy wymie­nić dystrybucję Debian GNU/Linux oraz Red Hat.

Zastosowa­nie maszyny linuksowej jako serwera, oprócz bardzo dobrej stabilności tego systemu, ma tę dodatkową zaletę, że zwalnia nas z konieczności kupowania drogiego, specjalistycznego oprogramowania. Większość potrzebnego w tego typu za­stosowaniach software’u wchodzi bo­wiem w skład dystrybucji Linuxa.

Przeznaczony wyłącznie dla sieci Client-Server.

Novell NetWare

Produkt firmy Novell Incorporated. Oferuje wysoki poziom stabilności pracy i bezpieczeństwa. System Novell NetWare jest obecnie najpopularniejszym systemem sieciowym dla małych, średnich i dużych przedsiębiorstw. Oferuje bardzo duże możliwości zarządzania zasobami sieci powiązane z rewelacyjną wydajnością. Obsługuje systemy wieloprocesorowe co pozwala administratorom na budowę centralnych baz danych bez poświęcania wydajności sieci na rzecz łatwego dostępu do danych.

Pracujący na dedykowanym serwerze Novell NetWare (w wersji od 4.11) oferuje, oprócz tradycyjnych usług w rodzaju współdzielenia plików czy drukarek, także inne, jak routing (dostarczanie danych przez sieć do miejsca przeznaczenia po najlepszej drodze), zarządzanie siecią, zintegrowaną obsługę TCP/IP oraz publikowanie w Internecie (udostępnianie informacji w postaci stron WWW). Zapewnia przy tym ochronę bezpieczeństwa pracy i zasobów użytkowników na wysokim poziomie. Mechanizmy NDS (Novell Directory Services) ułatwiają bezpośredni, szybki dostęp do zasobów sieci bez względu na ich lokalizację. Natomiast rozbudowane mechanizmy zabezpieczeń i kontroli pozwalają na zachowanie poufności danych, szczegółowe regulowanie praw dostępu do zasobów sieciowych, monitorowanie użytkowników itp. Serwer NetWare umożliwia także podłączenie bezdyskowych stacji końcowych, które czytają programy startowe bezpośrednio z serwera. Przeznaczony jest wyłącznie dla sieci Client-Server zarówno LAN jak i MAN oraz WAN.

Microsoft Windows NT

Microsoft Windows NT (ang. Windows New Technology) to sieciowy system operacyjny firmy Microsoft, produkowany z myślą o wydajnych komputerach i zastosowaniach w przemyśle. Występuje w dwóch podstawowych wersjach: Workstation i Server. Wersja Workstation przeznaczona jest dla stacji roboczych natomiast wersja Server dla serwerów sieciowych. W systemie Windows NT postawiono przede wszystkim na niezawodność systemu i bezpieczeństwo, oferując sprawdzony i bardzo wygodny interfejs użytkownika pochodzący ze środowiska Microsoft Windows 95 oraz pełną 32-bitowość.

Windows NT Server umożliwia dostęp do systemu operacyjnego i usług aplikacyjnych na podstawie pojedynczej rejestracji (ang. login) użytkownika. Zapewnia wysoki stopień bezpieczeństwa, realizowany według tego samego modelu dla wszystkich usług sieciowych. Z punktu widzenia administratora, zarządzanie użytkownikami, zasobami sieciowymi (prawami dostępu), a także samym systemem i całą siecią odbywa się w sposób wysoce zintegrowany, z jednej konsoli, za pomocą interfejsu graficznego.

System sieciowy Microsoftu może także służyć jako serwer aplikacji – większość używanych na świecie programów komercyjnych, pracujących wcześniej pod innymi systemami, zostało przeniesionych na platformę NT. Ponadto udostępnia on usługi routingowe oraz DNS – serwer nazw domenowych, zapewniając przekład internetowych adresów komputerowych ze „słownych” na „liczbowe” i odwrotnie, na przykład: www.micros.com na 169.123.102.41. Serwer NT umożliwia również zdalne startowanie bezdyskowych stacji roboczych, podobnie jak w Novell NetWare.

Windows NT daje się zintegrować z siecią Novell NetWare oraz UNIX-ową, współpracuje też z systemami Apple Macintosh. Wśród administratorów systemów zdania na temat systemu Microsoftu są jednak podzielone. Niektórzy mówią o szybkim spadaniu wydajności serwera, gdy liczba obsługiwanych przezeń stacji wzrasta powyżej kilkunastu, innym nie podoba się duża „samodzielność” systemu, który sam rozpoznaje sprzęt czy otoczenie sieciowe i stara się skonfigurować wszystko automatycznie, nie zawsze z powodzeniem. Niewątpliwą zaletą Windows NT jest jego spójność i kompatybilność z szeroką gamą działającego wcześniej oprogramowania.

Microsoft Windows 95/98

Oba te systemy są systemami „pseudosieciowymi” gdyż nie oferują praktycznie żadnej formy zabezpieczeń przed niepowołanym dostępem do zasobów sieci i umożliwiają wyłącznie budowę sieci typu Peer-To-Peer. Ponieważ domyślnym protokołem komunikacji sieciowej w Windows 95/98 jest IPX/SPX, system ten współpracuje z serwerami Novell NetWare i Windows NT.

Pozycjonowanie naturalne

Analizę przeprowadzono na dwóch stronach internetowych: czuchaj.blogspot.com i apartamentybiznes.com. Każda z nich pozycjonowana była na cztery różne frazy kluczowe.

Pozycjonowanie polegało na próbie zaciekawienia użytkowników serwisami, tak aby sami Internauci promowali strony. Sami użytkownicy mieli doprowadzić do wypozycjonowania witryn na słowa kluczowe, które były najbardziej powiązane z ich tematyką.

Tabele przedstawiają uśrednione pozycję strony w wynikach wyszukiwania na poszczególne frazy.

Tabela 4 Średnia pozycja w wynikach wyszukiwania dla strony czuchaj.blogspot.com

Słowo kluczowe Średnia pozycja
dane osobowe brak w wynikach
ochrona danych osobowych 253
prawo nowoczesnych technologii 1
prawo własności intelektualnej brak w wynikach

Źródło: Opracowanie własne na podstawie wyników w wyszukiwarce google.pl

Z powyższej tabeli wynika, że pozycjonowanie nie przyniosło zamierzonego efektu. Tylko dla jednej frazy strona znalazła się bardzo wysoko w wynikach wyszukiwania. Należy dodać, że frazy „prawo nowoczesnych technologii” i „prawo własności intelektualnej” należą do bardzo prostych fraz do wypozycjonowania. Pozostałe dwie frazy są frazami trudnymi.

Tabela 5 Średnia pozycja w wynikach wyszukiwania dla strony apartamentybiznes.com

Słowo kluczowe Średnia pozycja
apartamenty Kraków 109
apartamenty w Krakowie 298
wynajem apartamentów 12
wynajem mieszkań 67

Źródło: Opracowanie własne na podstawie wyników w wyszukiwarce google.pl

Z powyższej tabeli wynika, że pozycjonowanie nie przyniosło zamierzonego efektu. W tym przypadku okazało się efektywniejsze niż w poprzednim, ale wciąż bardzo dużo brakuje mu do ideału. Tylko jedna fraza osiągnęła pozycję, którą można uznać za dość wysoką. Należy jednak dodać, że wszystkie pozycjonowane frazy należą do fraz trudnych. Podsumowując wyniki pozycjonowania naturalnego można śmiało stwierdzić, że wyniki wskazują na małą skuteczność tego rodzaju pozycjonowania. Zarówno w przypadku pierwszym – łatwych fraz, jak i w przypadku drugim – znacznie trudniejszych fraz badania pokazują nieskuteczność tej metody.

Algorytmizacja zadania

Schemat blokowy aplikacji

Rysunek 3.1 przedstawia schemat blokowy oprogramowania.

Centralnym punktem oprogramowania jest baza danych, do której przekazywane są dane pobrane z formularzy i wyniki obliczeń, a z której pobierane są dane do prezentacji. Edycja danych kryteriów szczegółowych jak również wyboru funkcji użyteczności oraz macierzy parzystych porównań odbywa się na poziomie interfejsu użytkownika, dane są odczytywane i zapisywane w bazie danych. Przeprowadzanie obliczeń odbywa się poprzez pobranie danych z bazy danych, obliczone wyniki są przesyłane do bazy danych. Wyświetlanie obliczonych danych odbywa się jednostronnie: żadne informacje w tym przypadku nie są wpisywane do bazy danych; w takim trybie przeprowadzane jest wyświetlanie kryteriów globalnych oraz wykresów.

Schemat bazy danych

Rysunek 3.2 przedstawia strukturę bazy danych.

Rys. 3.2. Struktura bazy danych.

Oprogramowanie wykorzystuje bazę danych dBase w wersji III+.

Poniższe tabele przedstawiają strukturę poszczególnych grup.

Tab. 3.1. Struktura grupy Kryteria szczegółowe.

Kryteria szczegółowe

Kategoria

Nazwa pliku

Pola

Zdrowie

b_zdrowie.dbf

województwo, lekarze,

łóżka szpitalne

Finanse

b_finanse.dbf

województwo, środki

trwałe, pkb, dochody

Infrastruktura

b_infra.dbf

województwo, kolej,

drogi, sklepy

Czystość

b_czystosc.dbf

województwo,

oczyszczalnie, emisja

gazów, lesistość

Praca

b_praca.dbf

województwo, pracujący,

bezrobotni, średnia płaca

Przestępczość

b_przest.dbf

województwo,

przestępstwa, wskaźnik

wykrywalności

Tab. 3.2. Struktura grupy Macierze parzystych porównań i współczynniki względnej ważności
kryteriów szczegółowych.

Macierze parzystych porównań i współczynniki względnej ważności kryteriów szczegółowych

Kategoria

Nazwa pliku

Pola

Zdrowie

m_zdrowie.dbf

województwo, lekarze,

łóżka szpitalne, ranga

Finanse

m_finanse.dbf

województwo, środki

trwałe, pkb, dochody,

ranga

Infrastruktura

m_infra.dbf

województwo, kolej,

drogi, sklepy, ranga

Czystość

m_czystosc.dbf

województwo,

oczyszczalnie, emisja gazów, lesistość, ranga

Praca

m_praca.dbf

województwo, pracujący,

bezrobotni, średnia płaca, ranga

Przestępczość

m_przest.dbf

województwo,

przestępstwa, wskaźnik wykrywalności, ranga

Wszystko

m_wszystko.dbf

kategoria, zdrowie,

finanse, infrastruktura,

czystość, praca,

przestępczość, ranga

Tab. 3.3. Struktura grupy Typy funkcji dla kryteriów szczegółowych i ich punkty kluczowe.

Typy funkcji dla kryteriów szczegółowych i ich punkty kluczowe

Kategoria

Nazwa pliku

Pola

Zdrowie

funkcje.dbf

kryterium szczegółowe,

typ funkcji, punkty

kluczowe: X1, X2, X3,

X4

Finanse

Infrastruktura

Czystość

Praca

Przestępczość

Tab. 3.4. Struktura grupy Kryteria globalne.

Kryteria globalne

Kategoria

Nazwa pliku

Pola

Zdrowie

dd_zdrowie.dbf

województwo, DD1,

DD2, DD3

Finanse

dd finanse.dbf

województwo, DD1,

DD2, DD3

Infrastruktura

dd infra.dbf

 

województwo, DD1,

DD2, DD3

Czystość

dd czystosc.dbf

 

województwo, DD1,

DD2, DD3

Praca

dd praca.dbf

 

województwo, DD1,

DD2, DD3

Przestępczość

dd przest.dbf

 

województwo, DD1,

DD2, DD3

Wszystko

dd wszystko.dbf

 

województwo, DD1,

DD2, DD3

Popularne protokoły transmisji

Poszczególne węzły sieci komunikują się pomiędzy sobą nadając informacje według określonych zasad zwanych protokołami. Główne cele i model realizacji funkcji sieciowych OSI (Open Systems Interconnection) zostały zdefiniowany przez organizację standaryzacyjną ISO (International Standard Organization). Definiuje on m.in. grupę protokołów służących do komunikacji sieciowej i międzysieciowej.

Obecnie na rynku sieciowym stosuje się bardzo wiele protokołów transmisji, nie zawsze zgodnych z zaleceniami ISO, lecz ich szerokie rozpowszechnienie zdecydowało o uznaniu ich za standardy sieciowe. Do protokółów tych należą między innymi:

  • NetBEUI (NetBIOS Extended User Interface) – opracowany w 1985 r. przez IBM dla małych sieci LAN, obecnie używany w sieciowych systemach operacyjnych Windows NT, Windows 95/98.
  • TCP/IP (Transmission Control Protocol/Internet Protocol)  – protokół początkowo opracowany dla potrzeb i pod kierunkiem Ministerstwa Obrony rządu USA, będący podstawowym protokołem ówczesnej sieci rządowej i edukacyjnej znanej dzisiaj na całym świecie jako Internet. Protokół ten stosowany jest głównie w sieciach opartych na systemie UNIX, lecz także w innych sieciach lokalnych i rozległych. System NetWare 4.11 umożliwia pracę z wykorzystaniem tego protokołu.
  • IPX/SPX (Internet Packet Exchange/Sequential Packet Exchange) – protokół będący implementacją protokołu XNS firmy Xerox dokonaną przez firmę Novell. Znany również jako IP/IPC/SPP firmy Banyan. Jest to podstawowy protokół wykorzystywany w sieciach opartych na systemie Novell NetWare. Protokół ten jest obecnie najpopularniejszym (po TCP/IP) protokołem używanym do transmisji danych w sieci.
  • AppleTalk – protokół zdefiniowany przez firmę Apple. Bardzo rzadko używany, gdyż stosowany jest głównie w sieciach opartych na komputerach firmy Apple (Macintosh, PowerPC).

Geolokalizacja

W celu dokładnego określenia wyników wyszukiwania Google używa geolokalizacji. Jest to metoda opracowana przez firmę Google i umożliwia podanie użytkownikowi najlepszych wyników biorąc pod uwagę fakt z jakiego kraju użytkownik korzysta z Internetu.

Zagadnienie geolokalizacji najlepiej jest przedstawić na poniższym przykładzie. Użytkownik z Polski zadaje zapytanie wyszukiwarce google.pl dotyczące frazy „notebook”. Fraza jest słowem ogólnoświatowym. Wyniki jakie powinno zwrócić Google dla powyższego przypadku to tylko polskie strony. Natomiast użytkownik korzystający z wyszukiwarki google.co.uk otrzyma wyniki ze stronami angielskimi.

Do oceny lokalizacji strony wyszukiwarka Google wykorzystuje parametry:

  • lokalizacja linków kierujących do pozycjonowanej strony,
  • język w jakim jest napisana strona,
  • IP strony pozycjonowanej,
  • końcówka domeny, np. pl, com, de, co.uk.

Podstawowe topologie sieci komputerowych

Każda sieć komputerowa musi być zbudowana w oparciu o pewną strukturę, zwaną inaczej topologią. Najpopularniejsze, w zakresie sieci LAN, są topologie: szynowa, pierścieniowa oraz gwiaździsta.

1. Topologia szynowa:

Topologia szynowa – polega ona na przyłączeniu wszystkich komputerów (czyli węzłów) w sieci do tylko jednego kabla, który będzie wspólny dla wszystkich węzłów. Jeśli jakiś węzeł sieci chce nadać informację to wtedy musi podać na jej początku adres odbiorcy. Każdy węzeł odbiera nadaną informację i dekoduje adres zawarty w nagłówku tej wiadomości. Jeśli adres ten jest adresem danego węzła (komputera), to przejmuje on nadawane dane. Jeśli tak nie jest, węzeł (komputer) ignoruje strumień danych w magistrali i oczekuje na kolejną „porcję” informacji albo rozpoczyna nadawanie (w przypadku, gdy  magistrala jest wolna). Topologia szynowa używana jest najczęściej w sieciach Ethernet oraz LocalTalk.

2. Topologia pierścieniowa:

Topologia pierścieniowa polega na tym, że wszystkie węzły sieci tworzą zamknięty pierścień. W sieciach o tej strukturze każdy węzeł przetwarza aktywnie informacje aktualnie znajdujące się w magistrali. Typowym przykładem sieci opartej o topologię pierścieniową jest sieć światłowodowa FDDI. Jedną z odmian topologii pierścieniowej jest pierścień gwiaździsty, stosowany w sieciach Token Ring przez firmę IBM, wykorzystujący tak zwane urządzenia MAU (Multi-station Access Unit). Do urządzeń MAU dołączane są zarówno stacje robocze jak i serwery. Jednostki MAU umożliwiają usunięcie dowolnego węzła z pierścienia, jak również na łączenie wielu jednostek w duży pierścień.

3. Topologia gwiaździsta:

Topologia gwiaździsta polega na tym, że każdy węzeł sieci przyłączony jest własnym przewodem do urządzenia łączącego – tak zwanego koncentratora (ang. HUB). Topologia ta jest wykorzystywana w jednej z odmian sieci Ethernet – tak zwane 10BaseT.

Poza strukturą fizyczną sieci istnieje jeszcze tak zwana topologia logiczna związana z udostępnianiem magistrali (kanału informacyjnego) węzłom należącym do struktury fizycznej. W sieciach mamy do czynienia głównie z kanałami wielopunktowymi, co znaczy, że wiele urządzeń podłączonych jest do tego samego systemu okablowania. W związku z tym konieczne jest stosowanie adresowania urządzeń, aby wyeliminować konflikty pomiędzy nimi.

Aurox Linux

Aurox Linux to spolszczona i odpowiednio zorganizowana, komercyjna dystrybucja otwartego systemu operacyjnego GNU/Linux, zgodna z dystry­bucją firmy Red Hat. Jej założeniem jest prostota instalacji, przyjazność dla użytkownika i przystosowanie do polskich warunków[1] . Realizacja tych zało­żeń dodaje wartość do systemu GNU/Linux i pozwala firmie Aurox stworzyć rynek dla swoich usług.

System GNU/Linux i jego niekomercyjne dystrybucje są przeznaczone przede wszystkim dla użytkowników zorientowanych technicznie. Dla inży­nierów i specjalistów w dziedzinie IT[2]. Zwykły użytkownik, chcący używać tego systemu, ma do wyboru albo zatrudnienie administratora, który zain­staluje i dostosuje oprogramowanie do jego potrzeb [24], albo skorzystanie z jednej z komercyjnych dystrybucji, których założeniem jest uproszczenie instalacji i zarządzania systemem operacyjnym. Drugie rozwiązanie pozwala zazwyczaj rozwiązać większość problemów z jakimi można się spotkać przy używaniu komputera,[3] zaś jego koszt, ze względu na zjawisko skali, jest dużo mniejszy niż cena za korzystanie z usług specjalisty.

Model biznesowy na jakim opiera się działalność firmy Aurox jest po­łączeniem modelu dostawcy usług i dostawcy akcesoriów (rozdział 2.6.2 niniejszej pracy magisterskiej). Zara­bia ona na sprzedaży magazynów Linux+ Extra Aurox i Linux w szkole, do których dołączane są aktualne wersje systemu operacyjnego Aurox Linux. W celu zbudowania silnej marki i zdobycia nowych klientów realizowana jest strategia poszerzania rynku (roz. 2.6.3). Firma prowadzi szkolenia, programy certyfikacyjne oraz organizuje konferencje w celu upowszechniania Otwartego Oprogramowania i systemu GNU/Linux. Szczególnie szeroka oferta edukacyj­na jest kierowana do szkół i placówek oświatowych. Wynikiem tego będzie sprzężenie zwrotne, które uczyni markę firmy bardziej rozpoznawalną i do­prowadzi do wzrostu popytu na jej usługi.


[1]Dystrybucja jest także wydawana w innych wersjach językowych w Europie.

[2]Skrót IT oznacza technologię informacyjną i pochodzi od angielskich słów Information Technology.

[3]Wyjątkiem są specjalistyczne wymagania i zaawansowane rozwiązania w rozbudowa­nych systemach informatycznych.

Sieci bezprzewodowe

4.3.1. Punkty dostępowe

Podstawowym elementem sieci bezprzewodowej są punkty dostępowe. Wybierając określony model punktu dostępu, należy rozważyć wiele czynników.

♦ Zgodność urządzenia ze standardem 802.11.

♦ Możliwość zastosowania anteny zewnętrznej użytecznych w tworzeniu obszarów o gęstym pokryciu. Nie wszystkie punkty dostępu wyposażone są w możliwość podłączenia anteny zewnętrznej.

♦ Zapewnienie bezpieczeństwa przekazu danych – możliwość łatwego uaktualnienia do struktur bezpieczeństwa tworzonych obecnie przez grupę 802.11i.

♦ Roaming między punktami dostępu – wybór produktów od jednego dostawcy.

Brak standardu powoduje, że nie ma gwarancji, iż punkty dostępu różnych dostawców będą współpracować ze sobą.

♦ Posiadanie funkcji oszczędzania energii, zapewnia dłuższą pracę na bateriach.

♦ Zasilanie punktu dostępowego.

♦ Zarządzanie urządzeniami.

♦ Zasięg działania punktów dostępowych.

♦ Współpraca z różnymi kartami bezprzewodowymi.

♦ Moc przetwarzania punktu dostępowego – czy jest wystarczająca do działania z maksymalną wydajnością sieci WLAN przy włączonym protokole WEP?

Wszystkie te czynniki są bardzo ważne i zanim zdecydujemy się na konkretny AP należy sprawdzić jego wszystkie parametry, a co za tym idzie sprawdzić czy będzie on odpowiednim urządzeniem dla naszych warunków środowiskowych.

4.3.2. Rodzaje anten

Ponieważ anteny stosowane w kartach sieciowych i punktach dostępowych, są przystosowane do działania na ograniczonym obszarze, dlatego w celu właściwego pokrycia powierzchni często należy zastosować anteny zewnętrzne. Wybierając taką antenę należy zwrócić uwagę na kilka opisujących ją parametrów.

Zysk anteny – „stopień, w jakim sygnał jest wzmacniany na kierunku maksymal­nego promieniowania przez antenę.” Jednostką zysku anteny jest dBi, który mówi o ile decybeli poziom sygnału z danej anteny jest większy w porów­naniu z anteną izotropową[1](dla przykładu antena 8dBi nadaje sygnał o 6,31 razy silniejszy w stosunku do anteny izotropowej). Średnia wartość zysku prostych anten waha się w przedziale 3a7 dBi.

Kąt połowy mocy – parametr ten mówi nam o szerokości wiązki promieniowania. Jest on mierzony pomiędzy punktami, w których promieniowanie maleje do połowy swojej wartości szczytowej. Parametr ten odgrywa ważną role w efektywnym pokryciu powierzchni przy użyciu konkretnej anteny.

Rodzaj anteny – określa charakterystykę promieniowania danej anteny. Wyróżnia­my trzy rodzaje charakterystyk promieniowania:

  • dookólną, anteny z taka charakterystyką stosuje się, gdy trzeba pokryć duży obszar;
  • dwukierunkową, anteny z taka charakterystyką stosuje się, gdy powierzch­nią pokrycia jest np. korytarz;
  • jednokierunkową, anteny z taka charakterystyką stosuje się, gdy budujemy połączenie typu punkt-punkt.

Rodzaje anten zostały przedstawione na stronie 25, teraz zajmę się tylko charak­terystykami promieniowania tych anten. Charakterystyki te są bardzo pomocne w trakcie wybierania rodzaju anteny jaką należy zastosować [5].

4.3.2. Kanały radiowe

Urządzenia WLAN 802.11b/g pracują w paśmie częstotliwościowym w zakresie 2,412^2,472 GHz (jest to nielicencjonowane pasmo i dlatego tylko nim się zajmę), co stanowi 13 kanałów transmisyjnych, przedstawia to Tabela 4.3. Szczególnym kanałem jest kanał 10, który to jest dozwolony przez wszystkie władze regulacyjne i w większości AP jest domyślnie wybierany przy pierwszym włączeniu urządzenia.

Tabela 4.3. Kanały radiowe w domenie regulacyjnej ETSI

Numer kanału
Częstotliwość kanału [GHz]
1
2,412
2
2,417
3
2,422
4
2,427
5
2,432
6
2,437
7
2,442
8
2,447
9
2,452
10*
2,457
11
2,462
12
2,467
13
2,472

Źródło: Opracowanie własne na podstawie [5]

Sieć WLAN ma architekturę komórkową, gdzie każdą komórkę tworzy poje­dynczy AP (pracuje on w jednym kanale radiowym). Jeżeli sieć zostanie źle za­projektowana mogą pojawiać się harmoniczne od sąsiednich AP, co spowoduje ich interferencję. Ponieważ dla każdego kanału radiowego moc drugiej harmonicznej maleje o połowę w porównaniu do mocy pierwszej harmonicznej, natomiast moc trzeciej harmonicznej maleje o połowę w porównaniu do mocy drugiej harmonicz­nej, itd., kanały radiowe dla sąsiadujących punktów dostępowych w 802,11b/g muszą być oddalone od siebie o 5 kanałów, jak widać na Rysunku 4.19.

4.3.2. Obliczenia

1. Obliczenie liczby potrzebnych punktów dostępowych

Ponieważ WLAN ma budowę komórkową do obliczenia liczby potrzebnych AP, można wykorzystać metodę jaką używa się w telefonii komórkowej.

Pierwszym krokiem w tej metodzie jest obliczenie całkowitej powierzchni po­krycia, przy czy należy uwzględnić promień komórki, który wynosi R=17m (ko­mórka taka swoim zasięgiem obejmie dwie kondygnacje). Przy 3-piętrowym bu­dynku zazwyczaj wystarczy policzyć powierzchnię 2 kondygnacji, wyjątek mogą stanowić budynki w których stropy są zbrojone (bardzo duże tłumienie sygna­łu). Całkowita powierzchnia pokrycia dla budynku o wymiarach 35×70 m parter i I piętro, a 21×70 m pozostałe dwa wynosi:

NC = 35m-70m + 21m-70m = 2450m2 + 1470m2= 3920m2

Jeśli przyjmiemy, że średnio kanał jest zajmowany przez użytkownika przez 20 mi­nut (w przedziale 0^100 minut), wówczas ruch powodowany przez takiego użyt­kownika będzie wynosił 0,2 Erlanga.

Następnym krokiem jest obliczenie powierzchni jaką obejmuje pojedyncza komór­ka:

(Pole)R = |-/2-i?2 = 2, 5981- 1T2 = 750,85?b2

Znając całkowitą powierzchnię pokrycia oraz powierzchnię jaką obejmuje AP, możemy obliczyć ilość punktów dostępowych potrzebnych do pokrycia całego budynku:

Obliczenia te są teoretyczne i odnoszą się do 100% użycia punktów dostępo­wych. Jednak w praktyce wykorzystanie AP jest znacznie mniejsze, dlatego też można zastosować mniejszą ich liczbę. W przedstawionym powyżej budynku wy­starczą 4 AP po dwa na parterze oraz na 2 piętrze dla zapewnienia całkowitego pokrycia [14].

2. Obliczenie zasięgu sieci

Obliczenia zasięgu są czysto teoretyczne i znacznie odbiegają od rzeczywistych wartości. Jednakże pozwalają określić przybliżoną wartość zasięgu danego urzą­dzenia, a co za tym idzie wielokrotnie obniżyć koszt realizacji sieci.

Pierwszym krokiem jest obliczenie straty sygnału jaka występuję między urzą­dzeniem nadawczym, a odbiorczym.

Dla pasma 2,4 GHz, czyli dla najczęściej stosowanego wartość tą wyliczamy ze wzoru:

L = 20 log (d) + 20 log (f) + 36,6

gdzie:

L – tłumienie [dBi];

d – droga, pomiędzy urządzeniem nadawczym, a odbiorczym [km]; f – częstotliwość [MHz].

W przypadku połączeni na odległość 5 km, przy zastosowaniu 6 kanału – 2,437 GHz (wybór kanału opisany jest w Rozdziale 4.3.3) straty wynoszą:

L = 20 log (5) + 20 log (2437) + 36, 6
L = 20-0, 69 + 20-3, 38 + 36, 6
L = 118

Strata na łączu 5 km wynosi 118 dBi.

W kolejnym kroku należy wziąć pod uwagę wszystkie elementy wzmacniające sygnał (takie jak urządzenie nadawcze, antenę, wzmacniacze, które należy dodać) oraz powodujące stratę (takie jak złączki, połączenia przewodowe, które należy odjąć).

Typowy układ nadawczo-odbiorczy składa się z:

nadajnika/ odbiornika,

  • 2 pigtail’i,
  • 2 złączy,
  • kabla,
  • anteny nadawczej/odbiorczej.

Jeśli w łączu zostanie użyty nadajnik o wzmocnieniu 15 dBi oraz anteny, których wzmocnienie wynosi 12 dBi dla anteny nadawczej i 15 dBi dla anteny odbiorczej. Tłumienność pojedynczej złączki wynosi 0,25 dB, pigtail’i 1 dB, natomiast tłumienność kabla 0,22 dB/m. Wzmocnienie wyniesie:

Nadajnik : 15 – 2-1 – 2-0, 25 – 0, 22 + 12 = 24, 28[dB]

Odbiornik : 15 – 2-1 – 2-0, 25 – 0, 22 + 15 = 27, 28[dB]

Całkowite wzmocnienie: Nadajnik + Odbiornik = 51, 56[dB]

Od otrzymanego wzmocnienia należy odjąć straty sygnału jakie występują między urządzeniem nadawczym, a odbiorczym:

51, 56 – 118 = -66, 44[dB]

Wartość ta mówi nam o mocy sygnału na końcach łącza.

W ostatnim kroku należy porównać otrzymany wynik z czułością zastosowane­go urządzenia nadawczego oraz odbiorczego. Dla wartości przedstawionych w Ta­beli 4.4, przy przepływności 11 Mb/s czułość AP wynosi -83 dB, od której to należy odjąć otrzymaną moc sygnału:

83 – 66, 44 = 16, 56[dB]

Teoretycznie jest to wartość pozwalająca na poprawną transmisję z prędkością 11 Mb/s, w praktyce jednak margines dopuszczalnego błędu szacowany jest na 20 dB (zapewnia to stabilną transmisję niezależnie od warunków atmosferycz­nych) [9].

Tabela 4.4. Czułość punktu dostępowego

11 Mb/s
5 Mb/s
2 Mb/s
1Mb/s
-83 dB
-87 dB
-90 dB
-92 dB

Źródło: Opracowanie własne na podstawie [9]

Rozdział czwarty opisuje sposób projektowania sieci komputerowych LAN i WLAN. Zawiera informacje odnośnie: wyboru medium transmisyjnego, topologi fizycznej, topologii logicznej; a w przypadku sieci bezprzewodowych, także o wyborze: AP, kanałów radiowych oraz anten. W rozdziale tym opisałam sposób obliczania ilości potrzebnych punktów dostępowych oraz zasięgu sieci.


[1] Antena izotropowa jest to antena, która we wszystkich kierunkach równomiernie wysyła sygnał. Sygnał jaki dociera do anteny jest transmitowany w powietrze bez odbić, strat. Zysk takiej anteny wynosi 0 dBi.