Category Archives: prace dyplomowe

prace dyplomowe z informatyki

Uproszczony czterowarstwowy model sieci TCP/IP

Aplikacje sieciowe zazwyczaj zajmują się trzema najwyższymi warstwami (sesji, prezentacji i aplikacji) siedmiowarstwowego modelu odniesienia OSI. Stąd te trzy warstwy mogą być połączone w jedną zwaną warstwą aplikacyjną.

Dwie najniższe warstwy modelu OSI (fizyczną i łącza transmisyjnego) także można połączyć w jedną warstwę.

W efekcie otrzymujemy uproszczony czterowarstwowy model:

  • warstwa 4 – Aplikacyjna – poczta, transmisja plików, telnet
  • warstwa 3 – Transportu – TCP (Transmission Control Protocol) – protokół sterujący transmisją
  • warstwa 2 – Sieciowa – IP (Internet Protocol) – protokół internetowy
  • warstwa 1 – Fizyczna – Ethernet (karta sieciowa i połączenia sieciowe)

W każdej z tych warstw informacje są wymieniane przez jeden z wielu protokołów sieciowych.

Uproszczony czterowarstwowy model sieci TCP/IP

Model TCP/IP jest podstawą działania współczesnego internetu oraz większości sieci komputerowych. W odróżnieniu od modelu OSI, który składa się z siedmiu warstw i ma charakter teoretyczny, TCP/IP jest uproszczonym modelem czterowarstwowym, który został opracowany na potrzeby praktycznej realizacji komunikacji między komputerami. Jego zadaniem jest opisanie zasad przesyłania danych w taki sposób, aby różne systemy i urządzenia mogły ze sobą współpracować niezależnie od różnic sprzętowych czy programowych.

Podstawową różnicą między modelem OSI a modelem TCP/IP jest liczba warstw oraz ich zakres odpowiedzialności. W modelu TCP/IP poszczególne warstwy łączą funkcje kilku warstw OSI, co sprawia, że całość jest prostsza i bardziej dopasowana do rzeczywistych zastosowań. Warstwy tego modelu to: warstwa dostępu do sieci, warstwa internetowa, warstwa transportowa oraz warstwa aplikacji. Każda z nich realizuje określone zadania, a razem tworzą kompletny system komunikacji od nadawcy do odbiorcy.

Model TCP/IP został stworzony w latach 70. XX wieku w ramach prac finansowanych przez Departament Obrony Stanów Zjednoczonych. Jego głównym celem było zapewnienie niezawodnej komunikacji nawet w sytuacjach awarii części infrastruktury. Z czasem stał się standardem w komunikacji komputerowej, wypierając inne protokoły. Obecnie wszystkie sieci lokalne i globalne, w tym internet, funkcjonują w oparciu o ten model, co czyni go fundamentem współczesnej technologii sieciowej.

Warto podkreślić, że model TCP/IP nie jest jedynie schematem teoretycznym, lecz bezpośrednio opisuje zestaw protokołów używanych w praktyce. Każda warstwa ma przypisane konkretne protokoły, które odpowiadają za realizację określonych zadań. Dzięki temu można dokładnie prześledzić, w jaki sposób wiadomość wysłana z jednego komputera przechodzi przez wszystkie warstwy, aż dotrze do innego urządzenia w sieci.

Zrozumienie działania czterowarstwowego modelu TCP/IP ma ogromne znaczenie zarówno dla uczniów i studentów informatyki, jak i dla administratorów sieci. Pozwala bowiem lepiej analizować proces komunikacji, diagnozować problemy oraz projektować efektywne rozwiązania sieciowe. W dalszej części artykułu zostaną szczegółowo opisane wszystkie warstwy tego modelu wraz z ich funkcjami.

Warstwa dostępu do sieci

Warstwa dostępu do sieci w modelu TCP/IP odpowiada za fizyczne przesyłanie danych między urządzeniami. Obejmuje ona wszystkie elementy związane z medium transmisyjnym, takie jak kable, fale radiowe, światłowody, a także urządzenia sieciowe w postaci kart sieciowych, przełączników czy punktów dostępowych. W jej ramach działają również protokoły odpowiedzialne za sposób kodowania sygnału i adresowanie w obrębie lokalnej sieci.

Można powiedzieć, że ta warstwa stanowi fundament całej komunikacji, ponieważ bez niej żadne dane nie mogłyby zostać przesłane. Odpowiada ona nie tylko za przesyłanie bitów, ale również za organizację ramek, kontrolę błędów oraz ustalanie dostępu do medium transmisyjnego. W przypadku sieci Ethernet rolę tę pełnią reguły związane z adresowaniem MAC oraz zasadami przesyłania ramek. W sieciach bezprzewodowych zadania te realizują protokoły Wi-Fi, które dbają o poprawną komunikację w paśmie radiowym.

Warstwa dostępu do sieci w modelu TCP/IP łączy funkcje warstwy fizycznej i łącza danych z modelu OSI. Dzięki temu uproszczeniu proces komunikacji staje się bardziej czytelny, a administratorzy mogą szybciej diagnozować problemy. Przykładem może być sytuacja, gdy komputer nie otrzymuje adresu IP – zanim zaczniemy analizować protokoły wyższych warstw, trzeba upewnić się, że kabel jest poprawnie podłączony i działa karta sieciowa.

Warto zauważyć, że rozwój technologii w tej warstwie jest niezwykle dynamiczny. Od klasycznych kabli miedzianych przeszliśmy do nowoczesnych światłowodów, a od przewodowych sieci lokalnych do bezprzewodowych sieci Wi-Fi i 5G. Każda z tych technologii różni się szybkością, zasięgiem i odpornością na zakłócenia, ale wszystkie realizują to samo podstawowe zadanie – umożliwiają przesyłanie danych między urządzeniami.

Dla użytkownika końcowego warstwa ta jest praktycznie niewidoczna, ponieważ działa w tle. Jednak jej znaczenie staje się kluczowe w momencie, gdy pojawią się problemy z dostępem do sieci. Wówczas to właśnie od sprawdzenia kabli, routerów i kart sieciowych rozpoczyna się diagnoza.

Warstwa internetowa

Warstwa internetowa w modelu TCP/IP odpowiada za logiczne adresowanie urządzeń i wyznaczanie trasy przesyłania danych. To dzięki niej pakiety danych wiedzą, dokąd mają trafić, niezależnie od tego, gdzie znajduje się odbiorca. Najważniejszym protokołem tej warstwy jest IP (Internet Protocol), który nadaje każdemu urządzeniu unikalny adres i umożliwia komunikację w skali globalnej.

Adresowanie IP pozwala odróżniać poszczególne urządzenia w sieci, co jest absolutnie niezbędne w internecie, gdzie komunikują się ze sobą miliardy komputerów, telefonów i serwerów. W tej warstwie zachodzi również proces podziału danych na mniejsze jednostki zwane pakietami oraz określanie, jaką trasą mają one dotrzeć do celu. Rolę tę pełnią algorytmy routingu, które działają w routerach i zapewniają sprawny przepływ informacji.

Warstwa internetowa odpowiada także za fragmentację danych, czyli ich podział na mniejsze pakiety wtedy, gdy są zbyt duże, aby mogły zostać przesłane w jednej ramce warstwy dostępu do sieci. Dzięki temu komunikacja jest możliwa nawet w heterogenicznych środowiskach, gdzie różne technologie mają różne ograniczenia dotyczące wielkości przesyłanych jednostek.

Oprócz IP w tej warstwie działają również protokoły pomocnicze, takie jak ICMP (Internet Control Message Protocol), który odpowiada za diagnozowanie i raportowanie błędów w sieci. To właśnie dzięki ICMP możliwe jest korzystanie z narzędzia „ping”, które pozwala sprawdzić, czy dane urządzenie jest osiągalne w sieci. Innym przykładem jest ARP (Address Resolution Protocol), który tłumaczy adresy IP na fizyczne adresy MAC.

Bez warstwy internetowej niemożliwe byłoby istnienie internetu w obecnej formie. To ona zapewnia globalną łączność i pozwala, aby komputer w Polsce mógł komunikować się z serwerem w Stanach Zjednoczonych w ułamku sekundy.

Warstwa transportowa

Warstwa transportowa pełni kluczową rolę w zapewnieniu niezawodności komunikacji. Jej zadaniem jest kontrolowanie przepływu danych pomiędzy aplikacjami działającymi na różnych komputerach. W praktyce oznacza to, że ta warstwa czuwa nad tym, aby wszystkie pakiety dotarły do celu w odpowiedniej kolejności i bez błędów.

Najważniejszymi protokołami warstwy transportowej są TCP (Transmission Control Protocol) i UDP (User Datagram Protocol). TCP zapewnia połączeniową i niezawodną transmisję, co oznacza, że dane są dostarczane w całości i w odpowiedniej kolejności. Jest on wykorzystywany w aplikacjach wymagających pełnej poprawności transmisji, takich jak przeglądanie stron internetowych, poczta elektroniczna czy przesyłanie plików. Z kolei UDP jest protokołem bezpołączeniowym, który nie gwarantuje niezawodności, ale zapewnia większą szybkość. Stosuje się go w aplikacjach multimedialnych, grach online czy transmisjach na żywo, gdzie kluczowe jest tempo przesyłania danych, a nie ich absolutna poprawność.

Warstwa transportowa odpowiada także za dzielenie danych na segmenty i przypisywanie im numerów portów. Dzięki temu wiele aplikacji może korzystać jednocześnie z tej samej sieci bez konfliktów. Na przykład komputer może jednocześnie pobierać stronę internetową, wysyłać e-mail i prowadzić rozmowę głosową przez komunikator, a warstwa transportowa dba o to, aby dane z poszczególnych aplikacji były prawidłowo kierowane do odpowiednich procesów.

Dodatkowo warstwa transportowa kontroluje tempo przesyłania danych, aby uniknąć przeciążenia sieci. Mechanizmy takie jak kontrola przeciążenia i retransmisja błędnych segmentów sprawiają, że komunikacja staje się stabilna nawet w trudnych warunkach. To właśnie dlatego TCP/IP umożliwia działanie internetu na tak ogromną skalę, pomimo występowania opóźnień, strat pakietów czy różnic w przepustowości łączy.

Znaczenie warstwy transportowej jest ogromne, ponieważ to ona zapewnia spójność i niezawodność komunikacji między aplikacjami. Bez niej internet nie mógłby pełnić swojej obecnej roli platformy dla usług, aplikacji i multimediów.

Warstwa aplikacji

Ostatnią warstwą w modelu TCP/IP jest warstwa aplikacji. To właśnie tutaj dane są interpretowane i wykorzystywane przez użytkowników. W tej warstwie działają protokoły, które są bezpośrednio związane z aplikacjami sieciowymi, takie jak HTTP, FTP, SMTP, POP3, IMAP, DNS i wiele innych. Dzięki nim użytkownik może przeglądać strony internetowe, wysyłać wiadomości e-mail, pobierać pliki czy korzystać z usług chmurowych.

Warstwa aplikacji łączy w sobie funkcje trzech najwyższych warstw modelu OSI – aplikacji, prezentacji i sesji. Oznacza to, że odpowiada nie tylko za udostępnianie usług użytkownikowi, ale także za odpowiednie kodowanie, kompresję czy szyfrowanie danych. Współczesne protokoły, takie jak HTTPS, zapewniają dodatkowo bezpieczeństwo, gwarantując poufność i integralność przesyłanych informacji.

Należy pamiętać, że warstwa aplikacji nie ogranicza się jedynie do klasycznych aplikacji komputerowych. Obejmuje również wszystkie usługi sieciowe wykorzystywane przez urządzenia mobilne, systemy IoT czy aplikacje multimedialne. Każda z tych usług korzysta z określonych protokołów, które działają w ramach modelu TCP/IP, tworząc spójny ekosystem komunikacji.

Warstwa aplikacji jest najbardziej widoczna dla użytkowników końcowych, ponieważ to właśnie w niej odbywa się interakcja z programami i usługami. W praktyce użytkownik nie zastanawia się nad tym, jakie warstwy i protokoły odpowiadają za działanie sieci – interesuje go efekt końcowy, czyli dostęp do informacji i usług. Rolą warstwy aplikacji jest więc dostarczenie tego efektu w sposób szybki, wygodny i bezpieczny.

Znaczenie tej warstwy stale rośnie wraz z rozwojem internetu i pojawianiem się nowych usług. To tutaj rozwija się chmura obliczeniowa, komunikatory internetowe, platformy streamingowe i systemy pracy zdalnej, które opierają się na protokołach TCP/IP. Można więc stwierdzić, że warstwa aplikacji jest zwieńczeniem całego modelu i najbliżej użytkownika.

Instalacja sieci lokalnej

Proces instalacji sieci lokalnej należy rozpocząć od poczynienia pewnych wstępnych założeń, które są niezbędne do jej zbudowania. Są to:

Wybór fizycznej topologii sieci

Obecnie do wyboru są praktycznie tylko dwie topologie: topologia typu szyna oraz typu gwiazda.

Współcześnie stosuje się powszechnie tylko drugie rozwiązanie ze względów omówionych w części teoretycznej. Należy wspomnieć, że stosuje się czasem, zwłaszcza w sieciach o dużej rozpiętości, topologie mieszane polegające na łączeniu małych skupisk stacji z zastosowaniem topologii gwiazdowej, zaś skupiska te dołącza się do jednej szyny typu bus. Lecz takie rozwiązanie (w oparciu o kabel koncentryczny) spotyka się praktycznie tylko w sieciach amatorskich. W profesjonalnych instalacjach zamiast kabla koncentrycznego stosuje się światłowody.

Wybór przepustowości sieci

Przepustowość sieci lokalnej w głównej mierze zależy od tego, do czego dana sieć ma być wykorzystywana. Do wyboru są praktycznie dwie technologie: sieć 10Base-T (zbudowana na skrętce, o przepustowości 10 Mb/s) oraz sieć 100Base-TX (skrętka, o przepustowości 100 Mb/s). W przypadku kabla koncentrycznego RG-58 przepustowość łącza wynosi 10 Mb/s.

Rozwiązania typu Gigabit Ethernet (1000Base-T) są jak dotąd, ze względu na koszty, nieopłacalne w małych sieciach.

  • Określenie miejsca lokalizacji gniazd przyłączeniowych oraz miejsca umieszczenia szafy dystrybucyjnej z aktywnym osprzętem sieciowym (koncentratory, przełączniki itp.), w tym dokonanie wstępnych pomiarów dla określenia liczby metrów rynienek i kabla.
  • Zaprojektowanie logicznej struktury sieci

W tym punkcie należy określić, czy sieć będzie mała, czy będzie na tyle duża, że opłacalne będzie (ze względów funkcjonalnych i wydajnościowych) podzielenie jej na podsieci z wykorzystaniem przełączników, mostów itp.

  • Sporządzenie wstępnego kosztorysu inwestycji przy uwzględnieniu liczby koniecznych urządzeń, długości zastosowanego kabla, liczby gniazd przyłączeniowych, długości listew kablowych, liczby kołków rozporowych, itd.

Przykładowy schemat okablowania z wykorzystaniem szafy krosowniczej i gniazdek naściennych.

  1. Panel krosowy 19
  2. Gniazda RJ45 100 i 200 MHz, wersja STP i UTP. Adaptery do światłowodów w wersjach ST i S.C.
  3. Gniazdo komputerowe
  4. Ramki montażowe gniazd RJ 45, ST i SC (7 kolorów)
  5. Zaślepki gniazd RJ 45, ST, SC (7 kolorów)
  6. Uchwyty kabli
  7. Kable krosowe
  8. Konektor RJ45
  9. Kable sieci strukturalnej
  10. Szafa krosownicza 19”
  11. Switch sieciowy 10/100
  12. Panel zasilający
  13. Element rozdzielający część czynną od części biernej

Jak widać na schemacie okablowanie strukturalne jest swoistym systemem nerwowym współczesnej firmy. Gniazda strukturalne pozwalają na podłączenie telefonu, komputera, drukarki lub kopiarki sieciowej w prosty sposób. W pobliżu szafy krosowniczej umieszcza się serwer i centralę telefoniczną. Połączenie systemów komputerowego i telefonicznego nie jest przypadkowe. Obecnie zaciera się różnica między komputerem a telefonem. Współczesny telefon powoli staje się terminalem komputerowym wyposażonym w mikrofon i słuchawkę (telefon ISDN,DECT, GSM, aparaty systemowe PBX). Rozwiązania strukturalne wspiera technologię VOIP czyli telefonie przez siec komputerową działającą na protokole TCP-IP.

Instalacja sieci lokalnej

Instalacja sieci lokalnej (LAN – Local Area Network) jest procesem, który obejmuje planowanie, projektowanie, fizyczne okablowanie oraz konfigurację urządzeń sieciowych w celu stworzenia spójnego i niezawodnego środowiska komunikacyjnego. Tego typu sieci stosuje się w domach, szkołach, biurach czy przedsiębiorstwach, gdzie użytkownicy muszą korzystać ze wspólnych zasobów i łączyć się z internetem. Cały proces wymaga nie tylko znajomości technologii, ale także odpowiedniej organizacji pracy i uwzględnienia specyfiki miejsca, w którym sieć będzie działać.

Pierwszym krokiem w instalacji sieci lokalnej jest planowanie. Etap ten polega na określeniu potrzeb użytkowników oraz rodzaju urządzeń, które będą podłączane. W małych sieciach domowych zazwyczaj wystarczy router z wbudowanym przełącznikiem i modułem Wi-Fi. W dużych środowiskach, takich jak szkoły czy firmy, konieczne jest dokładne określenie liczby stanowisk roboczych, serwerów oraz drukarek sieciowych. Na tej podstawie ustala się, ile gniazd sieciowych należy zainstalować, gdzie będą umieszczone punkty dystrybucyjne i jaką topologię sieci najlepiej zastosować.

Kolejnym etapem jest dobór odpowiedniego okablowania i urządzeń aktywnych. Najczęściej w sieciach LAN stosuje się skrętkę miedzianą kategorii 5e, 6 lub wyższej, która umożliwia przesyłanie danych z dużą prędkością. W niektórych przypadkach, zwłaszcza przy większych odległościach lub potrzebie zapewnienia bardzo wysokiej przepustowości, stosuje się światłowody. Wybór urządzeń aktywnych obejmuje przełączniki (switch), routery, punkty dostępowe oraz serwery, które będą pełnić określone role w sieci. Wysoka jakość zastosowanych komponentów wpływa bezpośrednio na stabilność i bezpieczeństwo pracy całego systemu.

Bardzo ważnym elementem instalacji jest układanie kabli i zakończenia sieciowe. Kable prowadzi się w odpowiednich korytkach, kanałach kablowych lub pod podłogą techniczną, aby były zabezpieczone przed uszkodzeniami mechanicznymi. Na końcach kabli montuje się gniazda sieciowe lub wtyki RJ-45, które umożliwiają podłączanie komputerów i innych urządzeń. W większych instalacjach stosuje się specjalne szafy teleinformatyczne (rack), w których umieszcza się patch panele, przełączniki i inne elementy infrastruktury. Dzięki temu sieć jest przejrzysta, łatwa do konserwacji i rozbudowy w przyszłości.

Ostatnim etapem instalacji jest konfiguracja i testowanie sieci. Polega to na przypisywaniu urządzeniom adresów IP, konfiguracji serwera DHCP, ustalaniu zasad dostępu i włączaniu mechanizmów bezpieczeństwa, takich jak firewalle czy filtrowanie adresów MAC. W przypadku sieci bezprzewodowych konieczne jest również ustawienie odpowiedniego szyfrowania i haseł dostępowych. Po skonfigurowaniu wszystkich elementów przeprowadza się testy, które obejmują sprawdzenie łączności pomiędzy urządzeniami, pomiar prędkości transmisji oraz symulację typowego obciążenia sieci. Dopiero pozytywny wynik testów oznacza zakończenie instalacji i oddanie sieci do użytku.

Znaczenie prawidłowej instalacji LAN

Prawidłowo wykonana instalacja sieci lokalnej ma ogromne znaczenie dla wydajności i niezawodności komunikacji w danym środowisku. Źle zaprojektowana sieć może powodować opóźnienia, awarie, a nawet całkowite przerwy w dostępie do internetu czy serwerów. Dlatego tak ważne jest stosowanie odpowiednich standardów oraz staranne wykonywanie wszystkich połączeń.

Dobrze zaplanowana sieć lokalna zapewnia skalowalność, czyli możliwość jej rozbudowy w miarę wzrostu liczby użytkowników i urządzeń. Dzięki temu przedsiębiorstwo nie musi co kilka lat wymieniać całej infrastruktury, lecz może sukcesywnie ją modernizować. Ważnym aspektem jest również bezpieczeństwo – odpowiednio skonfigurowana sieć chroni dane użytkowników przed atakami z zewnątrz i nieuprawnionym dostępem wewnątrz organizacji.

LAN odgrywa również istotną rolę w udostępnianiu zasobów. Dzięki instalacji użytkownicy mogą korzystać ze wspólnych drukarek, serwerów plików czy aplikacji biznesowych. W wielu przypadkach sieć lokalna stanowi podstawę pracy całej firmy, a jej awaria może oznaczać poważne straty finansowe i organizacyjne. W tym kontekście instalacja sieci nie jest jednorazowym działaniem, lecz inwestycją, która przynosi długoterminowe korzyści.

Równie ważne jest znaczenie estetyki i ergonomii. Starannie poprowadzone kable, odpowiednio zamontowane gniazdka i dobrze rozmieszczone urządzenia wpływają nie tylko na stabilność działania sieci, ale także na komfort użytkowników. Brak chaosu w okablowaniu ułatwia konserwację, szybkie diagnozowanie usterek i ewentualne modernizacje. W tym sensie instalacja sieci lokalnej łączy w sobie aspekty techniczne i organizacyjne.

Nie można też zapominać o roli sieci lokalnych w edukacji i rozwoju społecznym. Instalacja LAN w szkołach, bibliotekach czy instytucjach publicznych pozwala użytkownikom uzyskiwać dostęp do informacji i nowoczesnych technologii. To pokazuje, że proces ten nie jest tylko techniczną czynnością, ale elementem infrastruktury, która ma znaczenie dla całej społeczności.

Protokół DHCP w sieciach komputerowych

DHCP jest usługą umożliwiającą dynamiczne przydzielanie adresów IP (z zadanej puli) komputerom w sieci LAN podczas konfiguracji w tych komputerach stosu TCP/IP przez jądro systemu lub skrypty startowe, (czyli praktycznie przy każdym uruchomieniu komputera). Zajmuje się tym komputer noszący nazwę serwera DHCP. Umożliwia to zwolnienie administratora sieci od przydzielania ręcznie adresów statycznych IP każdemu z komputerów z osobna.

Takie działanie nie wyklucza jednak przydzielania adresów statycznych (również tych rozdzielanych przez serwer, co oznacza, że komputerowi przydzielany jest zawsze taki sam, z góry określony adres IP).5

Protokół DHCP w sieciach komputerowych

DHCP (Dynamic Host Configuration Protocol) jest jednym z kluczowych mechanizmów, który umożliwia sprawne i zautomatyzowane funkcjonowanie współczesnych sieci komputerowych. Jego głównym zadaniem jest automatyczne przydzielanie urządzeniom adresów IP oraz innych niezbędnych parametrów konfiguracyjnych, takich jak maska podsieci, brama domyślna czy adresy serwerów DNS. Dzięki temu użytkownicy mogą korzystać z sieci bez konieczności ręcznego wprowadzania ustawień, co znacząco ułatwia zarządzanie infrastrukturą i eliminuje ryzyko błędów ludzkich.

W tradycyjnym podejściu administrator musiał ręcznie przypisywać adresy IP każdemu komputerowi, drukarce czy serwerowi w sieci. Takie rozwiązanie było pracochłonne, podatne na pomyłki i mało elastyczne, zwłaszcza w dużych środowiskach. DHCP rozwiązał ten problem, wprowadzając automatyzację i centralizację konfiguracji. W praktyce oznacza to, że każde urządzenie podłączone do sieci, jeśli ma włączoną opcję automatycznego pobierania adresu, zgłasza się do serwera DHCP, a ten przydziela mu odpowiedni zestaw parametrów. Cały proces trwa ułamki sekund i jest całkowicie niewidoczny dla użytkownika końcowego.

Protokół DHCP działa w modelu klient-serwer. Urządzenie, które chce uzyskać adres IP, pełni rolę klienta, natomiast odpowiedni serwer DHCP odpowiada za zarządzanie pulą dostępnych adresów i ich dystrybucję. Serwer może działać jako dedykowana maszyna, element systemu operacyjnego (np. w Windows Server czy Linux), a także jako funkcja wbudowana w routery sieciowe. Dzięki temu mechanizm DHCP znajduje zastosowanie zarówno w domowych sieciach Wi-Fi, jak i w dużych korporacyjnych środowiskach informatycznych.

Warto podkreślić, że DHCP nie ogranicza się jedynie do przydzielania adresów IP. Może również dostarczać urządzeniom dodatkowe informacje, które są kluczowe dla ich poprawnej pracy w sieci. Należą do nich między innymi parametry dotyczące serwerów czasu (NTP), domeny sieciowej, a nawet lokalizacji serwerów usługowych wykorzystywanych w przedsiębiorstwach. Dzięki temu DHCP staje się nie tylko narzędziem konfiguracyjnym, ale również sposobem na centralne sterowanie polityką sieciową.

Nie można też zapominać, że DHCP pozwala na efektywne gospodarowanie adresacją IP. Zamiast przypisywać adresy na stałe, administratorzy mogą tworzyć pule adresów, które są dynamicznie rozdawane urządzeniom w momencie ich podłączania się do sieci. W praktyce oznacza to, że jeśli użytkownik rozłączy się z siecią, adres IP wraca do puli i może zostać przydzielony innemu urządzeniu. Taki mechanizm znacznie zwiększa wydajność zarządzania przestrzenią adresową, zwłaszcza w sieciach o dużej liczbie urządzeń mobilnych.

Mechanizm działania protokołu DHCP

Proces przydzielania adresu IP w protokole DHCP przebiega według ustalonego schematu, który określa sekwencję komunikatów wymienianych pomiędzy klientem a serwerem. Całość składa się z kilku etapów, które w języku angielskim nazywa się DORA (Discover, Offer, Request, Acknowledge). Każdy z tych kroków pełni kluczową funkcję i razem tworzą niezawodny mechanizm automatycznej konfiguracji sieciowej.

W pierwszym kroku klient wysyła komunikat Discover, który ma formę rozgłoszenia w sieci i informuje serwery DHCP o potrzebie uzyskania konfiguracji. Serwer DHCP, który odbierze takie żądanie, odpowiada komunikatem Offer, w którym proponuje wolny adres IP wraz z dodatkowymi parametrami. Klient wybiera jedną z propozycji (jeśli jest ich kilka) i przesyła komunikat Request, w którym wyraża wolę wykorzystania danego adresu. Na zakończenie serwer potwierdza wybór komunikatem Acknowledge, co oznacza, że klient może rozpocząć korzystanie z przydzielonego adresu.

Mechanizm ten działa bardzo szybko, dzięki czemu użytkownik podłączający laptop, smartfon czy drukarkę do sieci praktycznie natychmiast uzyskuje dostęp do internetu i lokalnych zasobów. Istotne jest również to, że serwer DHCP może zarządzać czasem dzierżawy przydzielonych adresów. Oznacza to, że adres IP jest przypisany do urządzenia tylko na określony czas, po którym klient musi odnowić swoją konfigurację. Takie rozwiązanie zapewnia lepszą kontrolę nad adresacją i zapobiega jej wyczerpaniu.

Ciekawym aspektem działania DHCP jest także możliwość rezerwacji adresów. Administrator może przypisać określony adres IP do konkretnego urządzenia na podstawie jego adresu MAC. Dzięki temu wybrane komputery, serwery czy drukarki zawsze otrzymują ten sam adres, mimo że formalnie konfiguracja odbywa się dynamicznie. Funkcja ta jest szczególnie przydatna w środowiskach, gdzie część urządzeń wymaga stałego adresu IP dla poprawnej pracy aplikacji czy usług sieciowych.

Cały proces działania DHCP uwzględnia także mechanizmy redundancji i niezawodności. W dużych sieciach często stosuje się kilka serwerów DHCP, które współdzielą pulę adresów lub pracują w trybie failover. Dzięki temu awaria jednego serwera nie prowadzi do przerwania działania całej sieci, co ma ogromne znaczenie w środowiskach krytycznych, takich jak banki, uczelnie czy instytucje publiczne.

Znaczenie DHCP we współczesnych sieciach

Znaczenie protokołu DHCP w dzisiejszym świecie jest nie do przecenienia. To właśnie dzięki niemu możliwa jest masowa obsługa milionów urządzeń mobilnych, które codziennie łączą się z internetem. Bez automatycznego przydzielania adresów zarządzanie taką liczbą hostów byłoby praktycznie niemożliwe. Wystarczy wyobrazić sobie lotnisko czy stadion, gdzie jednocześnie z sieci korzystają dziesiątki tysięcy osób – DHCP pozwala na sprawne i niezauważalne dla użytkowników rozdysponowanie adresów i konfiguracji.

Protokół ten odgrywa również kluczową rolę w sieciach domowych. Routery, które dostarczają dostęp do internetu, mają wbudowany serwer DHCP, który automatycznie przydziela adresy komputerom, telefonom i urządzeniom Internetu Rzeczy. Dzięki temu użytkownik nie musi posiadać żadnej specjalistycznej wiedzy, aby korzystać z sieci – wystarczy podłączyć urządzenie, a cała reszta odbywa się automatycznie. DHCP w tym kontekście pełni rolę technologii, która ułatwia codzienne życie i upraszcza obsługę skomplikowanej infrastruktury.

Nie mniej ważne jest znaczenie DHCP w dużych sieciach korporacyjnych. Administratorzy mogą centralnie zarządzać konfiguracją, zmieniać parametry sieci i stosować polityki bezpieczeństwa. DHCP pozwala również na integrację z innymi usługami, takimi jak Active Directory czy systemy zarządzania tożsamością. Dzięki temu cała infrastruktura działa spójnie, a zmiany w konfiguracji mogą być wdrażane szybko i efektywnie.

Jednocześnie protokół DHCP ma także swoje ograniczenia i zagrożenia. Ponieważ działa na zasadzie rozgłaszania, podatny jest na ataki, takie jak podszywanie się pod serwer DHCP czy zalewanie sieci fałszywymi ofertami. W konsekwencji urządzenia mogą otrzymać błędną konfigurację, co prowadzi do braku dostępu do sieci lub przechwycenia ruchu przez nieuprawnionych użytkowników. Dlatego w praktyce stosuje się dodatkowe mechanizmy zabezpieczeń, takie jak filtrowanie adresów MAC, ochrona portów w przełącznikach czy stosowanie uwierzytelniania.

W przyszłości rola DHCP może być jeszcze większa w kontekście sieci IPv6. Choć nowa wersja protokołu IP wprowadza mechanizmy automatycznej konfiguracji (SLAAC), to DHCPv6 pozostaje ważnym narzędziem w zakresie centralnego zarządzania konfiguracją i integracji z istniejącą infrastrukturą. Oznacza to, że mimo rozwoju nowych rozwiązań, DHCP wciąż będzie odgrywał istotną rolę w zarządzaniu sieciami komputerowymi.


[5] Internet – http://republika.pl/teoria/

Krosowanie przewodów

Do prawidłowego działania kabla skrętkowego konieczne jest, aby pary przewodów były we właściwy sposób podłączone tak, aby powstające zakłócenia mogły się znosić:

Kolejność podłączenia przewodów skrętki jest opisana dwoma normami EIA/TIA 568A oraz 568B.

Dla połączenia komputera z koncentratorem lub przełącznikiem stosuje się tzw. kabel prosty (straight-thru cable), który z obu stron podłączony jest tak samo wg standardu 568A lub 568B. Dla połączenia bezpośrednio dwóch komputerów bez pośrednictwa
huba konieczna jest taka zamiana par przewodów, aby sygnał nadawany z jednej strony mógł być odbierany z drugiej. Ten kabel nosi nazwę kabla krzyżowego (cross-over cable) i charakteryzuje się tym, że jeden koniec podłączony jest wg standardu 568A zaś drugi 568B.

Odpowiednikiem kabla krzyżowego w połączeniu dwóch hubów jest gniazdo UpLink. Przy połączeniu kaskadowo dwóch hubów kablem prostym jeden koniec kabla podłączamy do jednego z portów huba pierwszego, zaś drugi koniec podłączony musi być do huba drugiego do portu UpLink. Przy podłączeniu kablem krzyżowym dwóch hubów, oba końce kabla muszą być dołączone do portów zwykłych lub do portów UpLink.

Port UpLink został wprowadzony po to, aby w połączeniach pomiędzy hubami uniknąć konieczności stosowania innego kabla niż we wszystkich innych połączeniach. Ze względu na swą funkcję, port ten określany jest czasami terminem portu z wewnętrznym krzyżowaniem.

Zarówno kable, gniazda, jak i przełączniki realizujące funkcję krzyżowania powinny być dla odróżnienia oznaczone symbolem X.

Jeżeli połączenie wykonywane jest kablem prostym to zaleca się stosowanie sekwencji 568A ze względu na to, że elementy sieciowe typu patchpanel lub gniazdo przyłączeniowe mają naniesione kody barwne przewodów

tylko w standardzie 568A lub w obu tych standardach. Oczywiście dopuszczalne jest również stosowanie alternatywnej sekwencji 568B.

Są, więc tylko dwa rodzaje końców kabla, które odpowiadają normom EIA/TIA 568A oraz EIA/TIA 568B. W skrętce 5 kategorii są cztery pary przewodów. Każda para składa się z przewodu o danym kolorze, oraz przewodu białego oznaczonego kolorowym paskiem o kolorze tym samym, co skręcony z nim przewód, przy czym

przewód z paskiem jest przed przewodem w kolorze jednolitym. Wyjątek stanowi para niebieska, która ma kolejność odwrotną.

Kolejność przewodów wg standardu EIA/TIA 568A jest następująca:

  1. biało-zielony
  2. zielony
  3. biało-pomarańczowy
  4. niebieski
  5. biało-niebieski
  6. pomarańczowy
  7. biało-brązowy
  8. brązowy

Kolejność przewodów wg standardu EIA/TIA 568B jest następująca:

  1. biało-pomarańczowy
  2. pomarańczowy
  3. biało-zielony
  4. niebieski
  5. biało-niebieski
  6. zielony
  7. biało-brązowy
  8. brązowy

Pary oznaczane są następująco:

  1. para niebieska
  2. para pomarańczowa
  3. para zielona
  4. para brązowa

Przed włożeniem przewodów we wtyczkę, zewnętrzna izolacja kabla UTP powinna zostać ściągnięta na odcinku około 12 mm, następnie przewody powinny zostać wsunięte do oporu w podanej powyżej kolejności.

Należy pamiętać, aby podczas montowania kabla w przyłączach gniazd nie dopuścić do rozkręcenia par przewodu na odcinku większym niż 13 mm gdyż może spowodować to zmniejszenie odporności na zakłócenia.

Krosowanie przewodów w sieciach LAN

Krosowanie przewodów to pojęcie, które odgrywa bardzo ważną rolę w budowie i funkcjonowaniu sieci lokalnych. Dotyczy ono sposobu zakończenia kabli sieciowych w taki sposób, aby możliwa była prawidłowa komunikacja między urządzeniami. Choć na pierwszy rzut oka wydaje się to tylko technicznym szczegółem, w rzeczywistości właściwe krosowanie przewodów decyduje o tym, czy sieć będzie działała stabilnie i zgodnie z założeniami. Prawidłowo skrzyżowane przewody umożliwiają dopasowanie pinów nadawczych jednego urządzenia do pinów odbiorczych innego urządzenia, co jest absolutnym warunkiem poprawnej transmisji danych w sieciach Ethernet.

Podstawą rozumienia zjawiska krosowania jest świadomość, że w kablach typu skrętka wykorzystywanych w sieciach LAN każda para przewodów pełni określoną funkcję. Część z nich odpowiada za wysyłanie sygnału, a część za jego odbiór. Jeżeli dwa urządzenia o podobnym sposobie transmisji zostaną połączone zwykłym kablem prostym, wówczas sygnał wysyłany przez jedno urządzenie trafia na pin nadawczy drugiego, a nie na jego pin odbiorczy. To właśnie w takich sytuacjach stosuje się kabel krosowany, który poprzez zamianę miejscami odpowiednich par przewodów pozwala na prawidłową komunikację.

Historycznie krosowanie przewodów było szczególnie istotne przy bezpośrednim łączeniu dwóch komputerów, które nie posiadały dodatkowych urządzeń pośredniczących, takich jak przełączniki czy huby. W takich połączeniach stosowano specjalne kable krosowane (tzw. cross-over), które umożliwiały wymianę danych bez konieczności stosowania sprzętu dodatkowego. Współcześnie większość nowoczesnych urządzeń sieciowych posiada funkcję Auto MDI/MDI-X, która automatycznie rozpoznaje rodzaj połączenia i dostosowuje sposób pracy portów. Dzięki temu różnice między kablami prostymi i krosowanymi w codziennej praktyce są coraz mniej odczuwalne, choć nadal istnieją sytuacje, w których właściwe krosowanie ma znaczenie.

Krosowanie przewodów dotyczy nie tylko kabli zakończonych wtykami RJ-45, ale również instalacji wykonywanych w patch panelach czy gniazdach ściennych. Podczas montażu instalator musi pamiętać o zachowaniu odpowiedniego standardu zakończenia, czyli T568A lub T568B. Jeżeli po jednej stronie kabla zastosuje się standard T568A, a po drugiej T568B, wówczas powstaje kabel krosowany. Z kolei zakończenie tego samego kabla według jednego standardu po obu stronach tworzy kabel prosty. Właściwe dobranie rodzaju kabla do sytuacji pozwala uniknąć problemów z komunikacją i jest jednym z podstawowych zadań instalatora.

Nie można również zapominać o roli krosowania w większych instalacjach sieciowych. W szafach teletechnicznych kable zakończone w patch panelach łączy się z urządzeniami aktywnymi za pomocą krótkich przewodów zwanych patchcordami. To właśnie w tym miejscu często dokonuje się fizycznego krosowania połączeń, które umożliwia elastyczne zarządzanie siecią. Dzięki patch panelom administratorzy mogą w prosty sposób zmieniać konfigurację fizycznych połączeń, przenosić użytkowników pomiędzy różnymi segmentami sieci czy organizować redundancję.

Znaczenie krosowania przewodów w praktyce

Znaczenie krosowania przewodów w sieciach LAN wykracza poza kwestie czysto techniczne. Prawidłowe krosowanie jest warunkiem stabilnej komunikacji, a błędy w tym zakresie mogą prowadzić do poważnych trudności. W praktyce niewłaściwe zakończenie przewodów skutkuje brakiem połączenia, spadkiem wydajności lub problemami z negocjacją prędkości transmisji. Dlatego każdy etap instalacji sieci powinien być wykonywany z najwyższą starannością, a zakończenia przewodów powinny być testowane przy pomocy specjalistycznych mierników.

Krosowanie przewodów jest również nieodłącznym elementem procesu organizacji infrastruktury sieciowej w przedsiębiorstwach i instytucjach. W centrach danych czy dużych biurowcach tysiące kabli zakończonych jest w patch panelach, a następnie łączonych za pomocą odpowiednio skrosowanych patchcordów. Dzięki temu administratorzy uzyskują możliwość pełnej kontroli nad strukturą sieci, a także szybkie reagowanie na zmieniające się potrzeby użytkowników. Elastyczność krosowania pozwala na przenoszenie stanowisk pracy, rekonfigurację serwerowni czy integrację nowych urządzeń bez konieczności prowadzenia nowych kabli.

Współczesne technologie w coraz większym stopniu automatyzują procesy związane z krosowaniem, jednak nie eliminują go całkowicie. Choć funkcja Auto MDI/MDI-X rozwiązała wiele problemów związanych z bezpośrednim łączeniem urządzeń, to wciąż istnieją sytuacje, w których ręczne krosowanie kabli jest niezbędne. Dotyczy to zwłaszcza starszych urządzeń, które nie obsługują automatycznego rozpoznawania połączeń, oraz specyficznych scenariuszy, takich jak testy diagnostyczne czy łączenie urządzeń w niestandardowych konfiguracjach.

Nie można również pomijać aspektu edukacyjnego. Nauka krosowania przewodów stanowi podstawowy element kształcenia przyszłych informatyków i techników sieciowych. Umiejętność prawidłowego zakończenia kabla, znajomość standardów T568A i T568B oraz rozróżnianie kabli prostych i krosowanych to fundament wiedzy o sieciach LAN. W praktyce szkolnej krosowanie przewodów jest często pierwszym zadaniem, które uświadamia uczniom, jak ważna jest precyzja w pracy z infrastrukturą sieciową.

Podsumowując, krosowanie przewodów jest jednym z kluczowych zagadnień związanych z budową i eksploatacją sieci lokalnych. Choć nowoczesne technologie w znacznym stopniu ograniczyły konieczność stosowania kabli krosowanych w codziennym użytkowaniu, to nadal pozostaje ono istotne zarówno w praktyce, jak i w teorii. Prawidłowe krosowanie przewodów zapewnia kompatybilność, elastyczność i niezawodność połączeń, stanowiąc fundament dla sprawnego działania każdej sieci LAN.

Zakończenia kabli sieci LAN

Jednym z najważniejszych elementów w budowie sieci lokalnych jest odpowiednie przygotowanie i zakończenie kabli transmisyjnych. To właśnie od jakości wykonania połączeń w dużej mierze zależy stabilność i wydajność całej sieci. Choć w dobie technologii bezprzewodowych mogłoby się wydawać, że sieci przewodowe tracą na znaczeniu, w rzeczywistości wciąż stanowią fundament każdej profesjonalnej infrastruktury. Dzieje się tak, ponieważ połączenia kablowe zapewniają znacznie większą przepustowość, mniejsze opóźnienia oraz lepszą odporność na zakłócenia niż transmisja radiowa. Dlatego prawidłowe zakończenia kabli sieci LAN pozostają tematem o fundamentalnym znaczeniu dla specjalistów zajmujących się instalacjami sieciowymi.

Kabel sieciowy wykorzystywany w sieciach LAN najczęściej oparty jest na skrętce miedzianej kategorii 5e, 6 lub 6a, która składa się z czterech par przewodów skręconych ze sobą w celu minimalizacji zakłóceń elektromagnetycznych. Prawidłowe zakończenie takiego kabla oznacza zamocowanie odpowiedniego złącza, które pozwala na bezproblemowe wpięcie go do urządzeń sieciowych, takich jak przełączniki, routery, punkty dostępowe czy karty sieciowe komputerów. Najpopularniejszym standardem zakończeń jest RJ-45, który stał się nieodłącznym symbolem sieci Ethernet. Choć na pierwszy rzut oka wykonanie takiego zakończenia może wydawać się proste, w praktyce wymaga ono precyzji, znajomości standardów okablowania oraz użycia odpowiednich narzędzi.

Istnieją dwa główne standardy zakończeń kabli sieciowych: T568A oraz T568B. Różnią się one kolejnością przewodów w złączu RJ-45, co ma znaczenie przy zachowaniu spójności całej instalacji. W praktyce oba standardy oferują tę samą jakość transmisji, jednak nie mogą być stosowane wymiennie w obrębie jednego segmentu sieci. W przypadku nieprawidłowego zakończenia kabla może dojść do problemów z komunikacją, utraty sygnału lub spadku przepustowości. Z tego powodu każdy instalator musi znać schematy przyporządkowania kolorów przewodów i stosować je konsekwentnie podczas całego procesu instalacyjnego.

Proces zakończenia kabla obejmuje przygotowanie przewodów poprzez zdjęcie izolacji, ułożenie żył w odpowiedniej kolejności zgodnie ze standardem, a następnie zaciśnięcie złącza RJ-45 za pomocą specjalnej zaciskarki. Ważne jest, aby przewody zostały wprowadzone w głąb złącza do samego końca, a ekran kabla – w przypadku skrętki ekranowanej – został prawidłowo połączony ze złączem. Niedokładne wykonanie tego procesu może skutkować problemami trudnymi do zdiagnozowania, takimi jak niestabilne połączenia czy ograniczona prędkość transmisji. Dlatego profesjonalne instalacje wymagają stosowania wysokiej jakości narzędzi i komponentów, które gwarantują niezawodność działania.

Oprócz złączy RJ-45 istotnym elementem są również gniazda sieciowe montowane w ścianach oraz patch panele, które służą do organizacji i zakończenia większej liczby przewodów w szafach teletechnicznych. W tego typu rozwiązaniach kabel jest zakończony na specjalnych złączach typu keystone, a następnie testowany pod kątem poprawności sygnału. Dzięki temu cała instalacja nabiera profesjonalnego charakteru, a sieć staje się bardziej przejrzysta i łatwiejsza w utrzymaniu. Zakończenia kabli w patch panelach pozwalają administratorom łatwo zarządzać połączeniami i szybko wprowadzać zmiany w konfiguracji sieci.

Znaczenie poprawnych zakończeń w praktyce

Poprawne zakończenie kabli sieciowych ma bezpośredni wpływ na funkcjonowanie całej sieci LAN. Nawet najmniejsze błędy popełnione podczas montażu mogą prowadzić do poważnych problemów. W wielu przypadkach użytkownik zauważa jedynie spadek prędkości transmisji lub niestabilność połączenia, które objawiają się przerywaniem sygnału podczas korzystania z internetu czy pracy w aplikacjach sieciowych. Zdarza się również, że źle wykonane zakończenia powodują interferencje między parami przewodów, co prowadzi do pogorszenia jakości transmisji i ograniczenia maksymalnej obsługiwanej przepustowości.

W środowiskach biznesowych, gdzie niezawodność jest kluczowa, profesjonalne zakończenia kabli są absolutnym wymogiem. Firmy często korzystają z certyfikowanych instalatorów, którzy posiadają specjalistyczną wiedzę oraz dostęp do narzędzi testujących parametry sieci. Po zakończeniu prac każdy kabel poddawany jest szczegółowym testom, które pozwalają ocenić tłumienność, przesłuchy czy integralność sygnału. Dopiero pozytywny wynik testu daje pewność, że instalacja spełnia wymagania określone dla danej kategorii okablowania.

Nie można zapominać, że poprawne zakończenia kabli mają również znaczenie dla bezpieczeństwa sieci. Nieprofesjonalne połączenia mogą prowadzić do niekontrolowanych zakłóceń elektromagnetycznych, które w skrajnych przypadkach umożliwiają przechwytywanie sygnału. Co więcej, źle wykonane zakończenia mogą być bardziej podatne na uszkodzenia mechaniczne, co w dłuższej perspektywie zwiększa ryzyko awarii i przestojów w pracy sieci. Dlatego tak istotne jest, aby inwestować w profesjonalne rozwiązania i unikać improwizowanych metod zakończeń, które mogą sprawdzić się jedynie w środowiskach domowych i testowych.

Warto dodać, że w przypadku instalacji wymagających dużej przepustowości, takich jak centra danych czy laboratoria badawcze, jakość zakończeń kabli odgrywa jeszcze większą rolę. Błędy, które w zwykłej sieci domowej mogłyby być niezauważalne, w sieciach o wysokiej gęstości ruchu mogą powodować poważne straty wydajności. Z tego względu stosuje się nie tylko wysokiej jakości złącza i gniazda, ale również rygorystyczne procedury testowe oraz dokumentację potwierdzającą zgodność z normami międzynarodowymi.

Podsumowując, zakończenia kabli sieci LAN są pozornie niewielkim, lecz niezwykle istotnym elementem całej infrastruktury. Ich jakość decyduje o stabilności, bezpieczeństwie i wydajności transmisji danych. Dlatego zarówno w instalacjach domowych, jak i profesjonalnych warto przywiązywać do nich szczególną wagę, traktując je jako inwestycję w niezawodność całego systemu.

Kable skrętkowe w instalacji naściennej powinny być zakończone gniazdami standardu RJ-45, przy czym w punkcie przyłączeniowym powinna być zainstalowana puszka z tymże rodzajem gniazda, zaś od strony szafy dystrybucyjnej kable powinny być dołączone do patchpanela o odpowiedniej liczbie gniazd.

Do wciskania przewodów w gniazda powinna być wykorzystywana specjalna wciskarka (zwana czasami, z racji swojego działania, narzędziem uderzeniowym) np. Krone. Przewody powinny być podłączone w gnieździ e w odpowiedniej kolejności, (o czym dalej). Gniazda oraz patchpanele oznaczone są kodami barwnymi odpowiadającymi kolorom przewodów w kablu.

Tzw. patchcordy, czyli odcinki kabla połączeniowego powinny być zakończone wtyczkami RJ-45 zaciśniętymi przy pomocy odpowiedniej zaciskarki.

Każdy odcinek kabla koncentrycznego powinien być zakończony wtykiem BNC i dołączony do trójnika połączonego z urządzeniem sieciowym (komputerem lub koncentratorem). Na trójnikach umieszczonych na końcach segmentu powinny być założone terminatory 50 Ohm.

Zalecane jest również, aby przewód masowy kabla, był na jednym z końców każdego segmentu uziemiony.

Sieć lokalna

Z definicji sieć lokalna (LAN – Local Area Network) jest siecią przeznaczoną do łączenia ze sobą stanowisk komputerowych znajdujących się na małym obszarze (podział ten uwzględnia jeszcze sieci metropolitarne -MAN -Metropolitan Area Network, oraz sieci rozległe – WAN – Wide Area Network).

Umożliwia ona wymianę plików oraz komunikatów pomiędzy użytkownikami, współużytkowanie zasobów udostępnionych w sieci np. plików i drukarek, a także korzystanie z innych usług.

Obecne sieci lokalne oparte są na technologii Ethernet (stąd synonim sieci ethernetowych), Token Ring lub FDDI. Jednakże ta pierwsza jest obecnie najczęściej stosowana. Stąd też jedynie jej poświęcimy więcej uwagi.1

Sieć lokalna

Sieć lokalna, znana szerzej pod angielskim skrótem LAN (Local Area Network), stanowi podstawowy element infrastruktury informatycznej w niemal każdej instytucji, przedsiębiorstwie, a nawet w domach prywatnych. Jej zasadniczym celem jest umożliwienie wymiany danych, współdzielenia zasobów oraz komunikacji pomiędzy urządzeniami znajdującymi się w ograniczonym obszarze geograficznym. W odróżnieniu od sieci rozległych WAN, które obejmują ogromne odległości i wymagają zaawansowanej infrastruktury operatorskiej, sieć lokalna skupia się na niewielkich przestrzeniach, takich jak biuro, budynek uczelni czy gospodarstwo domowe. To właśnie w LAN-ach kształtują się podstawy komunikacji komputerowej, a ich znaczenie wciąż rośnie wraz z rozwojem technologii chmurowych, urządzeń mobilnych i Internetu Rzeczy.

Podstawowa idea działania sieci lokalnej opiera się na współdzieleniu jednego medium transmisyjnego przez wiele urządzeń. W przeszłości medium to stanowiły kable koncentryczne, później zastąpione przez skrętkę miedzianą, a obecnie coraz częściej rolę tę pełni światłowód lub fale radiowe. Dzięki temu każdy komputer, serwer czy drukarka podłączona do sieci lokalnej może komunikować się z innymi urządzeniami, tworząc środowisko pracy oparte na współdzieleniu zasobów i danych. Mechanizmy protokołów takich jak TCP/IP zapewniają standaryzację komunikacji, co pozwala łączyć urządzenia różnych producentów w jedną, spójną infrastrukturę.

Ważnym aspektem funkcjonowania sieci lokalnej jest jej topologia, czyli sposób fizycznego i logicznego ułożenia połączeń pomiędzy urządzeniami. Klasyczne rozwiązania, takie jak topologia magistrali czy pierścienia, zostały praktycznie całkowicie zastąpione przez topologię gwiazdy, w której wszystkie urządzenia łączą się poprzez centralny punkt – zwykle przełącznik sieciowy. To rozwiązanie zapewnia nie tylko większą wydajność, ale również odporność na awarie, ponieważ uszkodzenie pojedynczego połączenia nie powoduje paraliżu całej sieci. Topologia ma również znaczenie w kontekście skalowalności, umożliwiając łatwe dodawanie nowych urządzeń i segmentów sieci.

Nie można również pominąć roli sieci bezprzewodowych w obrębie LAN. Standardy Wi-Fi sprawiły, że pojęcie sieci lokalnej nie odnosi się już wyłącznie do infrastruktury kablowej. Obecnie w wielu środowiskach to właśnie dostęp radiowy stanowi podstawowy sposób łączenia urządzeń z siecią. Mechanizmy zarządzania w sieciach bezprzewodowych wymagają jednak dodatkowych rozwiązań, takich jak autoryzacja, szyfrowanie czy kontrola dostępu. Mimo to integracja sieci przewodowych i bezprzewodowych w ramach jednej sieci LAN stała się standardem, zwiększając elastyczność i mobilność użytkowników.

Współczesna sieć lokalna to nie tylko medium komunikacyjne, ale również fundament wielu usług. To dzięki niej możliwa jest praca z serwerami plików, systemami baz danych, aplikacjami chmurowymi czy telefonią IP. Dla użytkownika końcowego sieć lokalna często jest niewidoczna – stanowi swoistą infrastrukturę, która umożliwia codzienną pracę i dostęp do zasobów. Jednak od jakości i prawidłowej konfiguracji LAN zależy bezpieczeństwo, szybkość działania i niezawodność całego środowiska informatycznego.

Architektura i technologie sieci lokalnych

Architektura sieci lokalnej jest projektowana w taki sposób, aby umożliwić efektywną komunikację, a jednocześnie zapewnić bezpieczeństwo i łatwość zarządzania. Podstawą jest warstwa fizyczna, czyli okablowanie i urządzenia pośredniczące, takie jak przełączniki, routery czy punkty dostępowe. To one odpowiadają za przesył danych i jego kierowanie do właściwego adresata. Najczęściej stosowanym standardem przewodowym w sieciach lokalnych jest Ethernet, którego historia sięga lat siedemdziesiątych XX wieku. Współczesne wersje Ethernetu osiągają przepustowości rzędu dziesiątek gigabitów na sekundę, co pokazuje skalę ewolucji tej technologii.

Warstwa logiczna opiera się na protokołach komunikacyjnych, które definiują sposób adresowania, podziału sieci i kontroli dostępu do medium. Najważniejszym protokołem w sieciach lokalnych jest TCP/IP, który stał się globalnym standardem komunikacyjnym. Dzięki niemu sieci lokalne mogą płynnie integrować się z siecią globalną, tworząc spójny system wymiany informacji. Każde urządzenie w sieci otrzymuje unikalny adres IP, który pozwala na jego identyfikację i komunikację. W dużych środowiskach korporacyjnych stosuje się dodatkowo mechanizmy podziału sieci na segmenty, czyli VLAN-y, które zwiększają bezpieczeństwo i wydajność poprzez izolowanie ruchu.

Równolegle z sieciami przewodowymi rozwijały się technologie bezprzewodowe, które w architekturze LAN odgrywają coraz większą rolę. Standard Wi-Fi, obecnie w wersjach od 4 do 7, zapewnia coraz większą przepustowość, a także obsługę rosnącej liczby urządzeń mobilnych. Integracja sieci przewodowych i bezprzewodowych w ramach jednej architektury LAN wymaga stosowania zaawansowanych kontrolerów i systemów zarządzania, które monitorują i optymalizują ruch. Dzięki temu użytkownicy mogą bezproblemowo przełączać się pomiędzy różnymi punktami dostępowymi, zachowując ciągłość połączenia.

W architekturze sieci lokalnych kluczowe znaczenie mają także mechanizmy bezpieczeństwa. Należy do nich zarówno kontrola fizycznego dostępu do infrastruktury, jak i zabezpieczenia na poziomie protokołów. W sieciach bezprzewodowych powszechnie stosuje się standard WPA3, który zapewnia ochronę transmisji przed podsłuchem. Z kolei w sieciach przewodowych ważną rolę odgrywa segmentacja ruchu, zapory sieciowe i systemy wykrywania intruzów. Wszystko to ma na celu ochronę poufnych danych, które często stanowią najcenniejszy zasób organizacji.

Architektura sieci lokalnej musi być również skalowalna, aby sprostać rosnącym wymaganiom użytkowników i aplikacji. W praktyce oznacza to projektowanie z myślą o przyszłej rozbudowie, stosowanie okablowania i urządzeń obsługujących wyższe przepustowości oraz wprowadzanie mechanizmów redundancji. Nowoczesne sieci lokalne coraz częściej korzystają z rozwiązań definiowanych programowo (SDN), które pozwalają centralnie zarządzać całą infrastrukturą i dynamicznie dostosowywać jej parametry do zmieniających się potrzeb.

Znaczenie i przyszłość sieci lokalnych

Znaczenie sieci lokalnych w dzisiejszym świecie jest ogromne. To dzięki nim funkcjonują systemy informatyczne w szkołach, urzędach, szpitalach czy firmach produkcyjnych. Bez sprawnie działającej sieci LAN niemożliwe byłoby korzystanie z nowoczesnych aplikacji, usług chmurowych czy pracy zdalnej. Sieci lokalne są również fundamentem Internetu Rzeczy, ponieważ to one obsługują komunikację pomiędzy inteligentnymi urządzeniami w budynkach, fabrykach czy instytucjach publicznych.

Równocześnie rozwój technologii stawia przed sieciami lokalnymi nowe wyzwania. Coraz większa liczba urządzeń podłączanych do sieci powoduje konieczność stosowania bardziej wydajnych protokołów oraz skuteczniejszych mechanizmów zarządzania ruchem. Dodatkowo rośnie znaczenie bezpieczeństwa, ponieważ każdy punkt końcowy w sieci może stać się potencjalnym celem ataku. To sprawia, że administratorzy muszą nieustannie wdrażać nowe rozwiązania ochronne, a producenci sprzętu i oprogramowania opracowują coraz bardziej zaawansowane systemy monitorowania.

Przyszłość sieci lokalnych związana jest również z wdrażaniem technologii 5G oraz rozwiązań chmurowych. Integracja LAN z sieciami komórkowymi nowej generacji otwiera drogę do jeszcze większej mobilności i elastyczności. W wielu przedsiębiorstwach pojawia się koncepcja sieci hybrydowych, w których część infrastruktury jest oparta na tradycyjnym LAN, a część na rozwiązaniach operatorskich. Takie podejście pozwala na optymalne wykorzystanie zasobów i zapewnienie ciągłości działania nawet w sytuacjach awaryjnych.

Sieci lokalne będą również odgrywać kluczową rolę w rozwoju sztucznej inteligencji i automatyzacji procesów. Inteligentne systemy zarządzania ruchem, oparte na analizie danych w czasie rzeczywistym, pozwolą dynamicznie dostosowywać parametry sieci do aktualnych potrzeb. To z kolei zwiększy efektywność wykorzystania zasobów i poprawi doświadczenia użytkowników. Już teraz testowane są rozwiązania umożliwiające automatyczne wykrywanie anomalii w ruchu sieciowym i reagowanie na potencjalne zagrożenia bez udziału człowieka.

Podsumowując, sieć lokalna pozostaje jednym z najważniejszych elementów infrastruktury informatycznej. Jej rola nie ogranicza się już do prostego łączenia komputerów, lecz obejmuje zarządzanie bezpieczeństwem, mobilnością, dostępem do usług chmurowych i integracją z globalnymi systemami komunikacyjnymi. To sprawia, że sieci lokalne będą w przyszłości jeszcze bardziej złożone, ale jednocześnie kluczowe dla funkcjonowania społeczeństwa informacyjnego.


[1] „Sieci Komputerowe Księga Eksperta” -M. Sportack, wydawnictwo Helion 1999r

Wybór kryteriów szczegółowych

W celu wyboru odpowiednich kryteriów szczegółowych należy zastanowić się, jakie parametry dotyczące poziomu życia nas interesują. W tym miejscu pojawia się pierwszy problem, jaki napotykamy, a mianowicie subiektywizm tego wyboru. Ludzie przy ocenie jakości życia w określonym miejscu kierują się różnymi czynnikami, np. liczba miejsc w teatrach, liczba lekarzy, średnia płaca w wybranym mieście, itp. Niestety należy wybrać te kryteria, które mają dla nas znaczenie, w ten sposób ogranicza się do pewnego stopnia możliwość analizy poziomu życia dla innych osób o innych potrzebach. Podczas doboru kryteriów można napotkać na następujące problemy:

  • nierównoważność kryteriów: część kryteriów jest bardziej istotna, a część mniej istotna,
  • część kryteriów jest w stosunkach antagonistycznych, oznacza to, że ulepszenie jakiegoś kryterium spowoduje automatycznie pogorszenie innego,
  • kryteria szczegółowe dzielą się najczęściej na dwie grupy: kryteria ilościowe (np. średnia płaca na danym terenie), kryteria jakościowe – oszacowywane na podstawie ocen ekspertów z danych dziedzin (np. ocena stopnia ryzyka danej inwestycji). W tym drugim wypadku powstaje problem właściwego ustalenia wartości dla danego kryterium – oceny poszczególnych ekspertów mogą się od siebie różnić, czasami nawet znacząco, dlatego kryteria z grupy jakościowych są obarczone dużym stopniem subiektywizmu,
  • ilość kryteriów może być zbyt duża przez co trudne staje się oszacowanie, które z parametrów są ważniejsze, a które mniej ważne.

W przypadku analizy poziomów życia w poszczególnych województwach wykorzystywane są tylko kryteria ilościowe, dzięki czemu udało się zmniejszyć stopień subiektywizmu kryteriów szczegółowych.

Kryteria szczegółowe podzielono na sześć kategorii:

  • zdrowie,
  • finanse,
  • infrastruktura,
  • czystość,
  • praca,
  • przestępczość,

W kategorii zdrowie umieszczono kryteria:

  • lekarze, kryterium to oznacza liczbę lekarzy na 10 tys. ludności,
  • łóżka szpitalne, oznaczające ilość łóżek szpitalnych na 10 tys. ludności,

W kategorii finanse umieszczono kryteria:

  • środki trwałe, kryterium to oznacza wartość brutto środków trwałych w przeliczeniu na jednego mieszkańca danego województwa,
  • produkt krajowy brutto – wartość produktu krajowego brutto w zł. w przeliczeniu na jednego mieszkańca,
  • dochody – wartość nominalnych dochodów brutto w sektorze gospodarstw domowych w zł. na jednego mieszkańca.

Kategoria infrastruktura zawiera następujące kryteria:

  • kolej – linie kolejowe eksploatowane normalnotorowe w km na 100 km2 powierzchni ogólnej,
  • drogi – drogi publiczne o twardej nawierzchni w km na 100 km2 powierzchni ogólnej województwa,
  • sklepy – ilość sklepów w danym województwie w przeliczeniu na 10 tys. ludności,

Następną kategorią jest czystość i zawiera następujące kryteria:

  • oczyszczalnie – ludność korzystająca z oczyszczalni ścieków w procentach ludności ogółem,
  • emisja gazów – emisja przemysłowych zanieczyszczeń powietrza gazowych i pyłowych z zakładów szczególnie uciążliwych dla czystości powietrza w tys. ton na 1 km2 powierzchni województwa,
  • lesistość – powierzchnia gruntów leśnych w procentach powierzchni całkowitej województwa,

Kategoria praca zawiera następujące kryteria:

  • pracujący – liczba osób zatrudnionych w przeliczeniu na 10 tys. ludności w danym województwie,
  • bezrobotni – liczba zarejestrowanych bezrobotnych w przeliczeniu na 10 tys. ludności w danym województwie,
  • średnia płaca – przeciętne miesięczne wynagrodzenie brutto w zł. w danym województwie,

Ostatnią kategorią jest przestępczość, która zawiera kryteria:

  • przestępstwa – ilość przestępstw stwierdzonych w zakończonych
  • postępowaniach przygotowawczych na 10 tys. ludności,
  • wskaźnik – wskaźnik wykrywalności sprawców przestępstw stwierdzonych w procentach.

Informatyzacja ZUS-u

Proces informatyzacji ZUS-u może być przykładem jak nie należy prze­prowadzać takich przedsięwzięć w sektorze administracji publicznej [33].

Wy­nikiem projektu było doprowadzenie niemal do monopolizacji rynku infor­matycznego za pieniądze podatników.[1]

Założeniem było ujednolicenie syste­mu na terenie całego kraju, co w rzeczywistości sprowadziło się do wdroże­nia rozwiązania jednego producenta. Dodatkowo, zawarcie niejasnych umów handlowych,[2] odebrało klientom ZUS-u autonomię i możliwość wyboru oraz wymuszało kupno platformy systemowej zagranicznej firmy Microsoft. Jest to oczywistym pogwałceniem praw podatników, zmuszonych do korzystania z systemu informatycznego, połączonym z niegospodarnością w wydawaniu publicznych funduszy. Powoduje to także odpływ pieniądza za granicę i do­prowadza do zjawiska wykupywania przez polskie społeczeństwo własnych miejsc pracy,[3] stawiając się tym samym na pozycji biednego konsumenta.

Instytucja publiczna, jaką niewątpliwie jest ZUS, powinna mieć na uwa­dze przede wszystkim dobro społeczne. Realizacja tak dużego przedsięwzię­cia stwarza olbrzymie możliwości wpływania na rynek technologii informa­cyjnych w Polsce. Upublicznienie protokołów komunikacyjnych oraz posta­wienie wymogu otwartości projektu, zamiast ujednolicenia systemu i przy­zwolenia na zamknięcie, wywołałoby szereg pozytywnych zjawisk.

Na rynku w ramach swobodnej konkurencji powstałyby aplikacje klienckie służące do rozliczeń z urzędem, o których rozwoju decydowałaby przydatność rynkowa i potrzeby użytkowników. Podatnik posiadałby możliwość wyboru spośród rożnych rozwiązań i różnych platform systemowych, nie byłby zmuszany do kupna programów firmy Microsoft[4] oraz dzięki otwartemu kodu źródłowe­mu, zyskałby autonomię. Dodatkowo, powstałby rynek usług, związanych z tak wdrożonym projektem informatycznym, oparty na wolnej konkuren­cji. W efekcie, publiczne fundusze zostałyby efektywniej rozdysponowane, podatnik otrzymałby lepszy produkt i więcej przywilejów, zaś jego pieniądz pozostałby w kraju i przyczyniłyby się do powstania nowych miejsc pracy. [4] [5]


[1]Pojawił się nieoficjalny, otwarty projekt Janosik (janosik.net), mający na celu dostarczenie użytkownikowi niezależnej aplikacji do rozliczania się z urzędem, działa­jącej na każdej platformie. Jednak z powodu polityki ZUS-u, twórcy programu, nieustannie borykają się z problemami formalno-prawnymi.

[2]Chodzi tu przede wszystkim o zamknięcie protokołów komunikacyjnych w systemie oraz faworyzowanie rozwiązań firmy Microsoft.

[3]Zjawisko nazwane zostało efektem Wal-Marta i jest wynikiem obserwacji wpływu hi­permarketów na lokalne rynki [34].

[4] Jako platformę systemową dla aplikacji klienckiej mógłby zostać wybrany otwarty [5] pozbawiony opłat licencyjnych system GNU/Linux.

Popularne sieciowe systemy operacyjne

praca dyplomowa z początku wieku

Każda, nawet najlepiej zaprojektowana i wykonana sieć nie będzie działała bez zastosowania jednego z wielu dostępnych obecnie sieciowych systemów operacyjnych, które stanowią podstawę działania serwerów.

Do zadań sieciowych systemów operacyjnych należy udostępnianie w sieci plików i katalogów, wspólnych drukarek, modemów, zmieniaczy płyt CD-ROM, aplikacji oraz baz danych. Korzystanie z poszczególnych zasobów jest zwykle regulowane przez nadanie użytkownikom i stacjom roboczym odpowiednich praw dostępu. Ponadto system sieciowy powinien zapewniać możliwość porozumiewania się użytkowników ze sobą oraz pozwalać na korzystanie z usług internetowych, przy zapewnieniu bezpieczeństwa zasobów lokalnych.

Zadania te są wypełniane przez różne systemy w różny sposób i na rozmaitym poziomie. Dobór najbardziej odpowiedniego zależy od charakteru zastosowań, którym będzie służyła dana sieć lokalna, a także od jej wielkości, mierzonej liczbą serwerów i stacji roboczych.

Do najbardziej znanych należą: NetWare firmy Novell, Windows NT Server Microsoftu oraz Linux należący do rodziny systemów UNIX-owych.

UNIX

Jest to system najstarszy i najtrudniejszy do opanowania, a jednocześnie oferujący ogromne możliwości konfiguracyjne, bardzo wysoki poziom zabezpieczeń przed nieautoryzowanym dostępem do zasobów sieci oraz niespotykaną w innych systemach stabilność pracy. Jest powszechnie stosowany na serwerach internetowych. Pracuje on w trybie znakowym czyli tak jak znany chyba wszystkim Microsoft DOS. Jest przeznaczony wyłącznie dla sieci Client-Server.

UNIX zaprojektowany jest pod kątem obsługi dużych serwerów. Ma wbudowane mechanizmy do pracy w sieci, jest wielozadaniowy (wykonuje wiele programów jednocześnie) i wielodostępny (wielu użytkowników na raz). W instalacjach sieciowych bazujących na platformie UNIX-owej realizuje się współdzielenie zasobów dyskowych i urządzeń peryferyjnych, obsługę wielu zaawansowanych aplikacji o architekturze klient-serwer. System może być wyposażony w narzędzia bezpieczeństwa – od haseł użytkowników i sterowanych praw dostępu do zasobów, po szyfrowane kanały komunikacyjne, w których przesyłane przez łącza sieciowe dane są kodowane przed wysłaniem przez jeden z komputerów i dekodowane po odebraniu przez drugi, co zapobiega „podsłuchiwaniu” przez hackerów.

UNIX sprzedawany jest zazwyczaj wraz z komputerami, często w ramach całościowej instalacji sieciowej „pod klucz”. Służy wówczas do obsługi sieci i aplikacji typu bazy danych. Najbardziej znane oprogramowanie obsługujące bazy danych w architekturze klient-serwer, jak na przykład produkty firm Oracle czy Informix, posiada implementację na wszystkie platformy UNIX-owe. Pod kontrolą UNIX-a pracują zwykłe pecety oraz najpotężniejsze na świecie, wieloprocesorowe superkomputery.

UNIX jest standardowo wyposażony w narzędzia komunikacyjne, a jego włączenie do sieci jest stosunkowo proste, przy czym nie ma znaczenia czy jest to sieć lokalna, czy Internet. Administrator UNIX-a musi posiąść sporą porcję wiedzy o systemie. Specyfika poszczególnych odmian UNIX-a, zwłaszcza na poziomie zaawansowanych narzędzi do zarządzania powoduje, że niemal każdej odmiany systemu trzeba się osobno nauczyć.

Sieci oparte na serwerach UNIX-owych stosowane są w dużych, bogatych firmach i instytucjach. W wersjach komercyjnych są to rozwiązania kosztowne. Jednak UNIX potrafi efektywnie wykorzystać moc i szybkość przetwarzania silnych maszyn, zaś serwery oferują wysoką stabilność i niezawodność pracy, co ma istotne znaczenie w niektórych zastosowaniach.

Linux

Młodszy „brat” UNIX’a. Oferuje bardzo zbliżone możliwości, a jednocześnie jest o wiele łatwiejszy w obsłudze i konfiguracji. Został zaprojektowany przez jednego ze studentów informatyki na uniwersytecie w Oslo – Linusa Torvaldsa, który opublikował rezultaty swojej pracy w Internecie i udostępnił kod źródłowy systemu wszystkim zainteresowanym jego dalszą rozbudową. Dzięki temu Linux stał się najszybciej i najczęściej aktualizowanym systemem operacyjnym na świecie. Jego wersja instalacyjna jest legalnie dostępna w Internecie całkowicie za darmo (pomijając koszt pobrania kilkudziesięciu MB).

Tak jak UNIX, Linux znany jest z wysokiej niezawodności i stabilności pracy. Jest systemem wieloużytkownikowym i wielozadaniowym. Na pojedynczym serwerze może, za pomocą terminali, pracować wielu użytkowników. System autoryzacji, sterowanie dostępem za pośrednictwem nadawanych praw, szyfrowanie zdalnych transmisji sprawiają, że poprawnie skonfigurowany system zapewnia bardzo wysoki stopień ochrony danych. Dodatkowo system szczelnego izolowania wykonywanych na serwerze zadań sprawia, że nawet przy znacznej ilości pracujących jednocześnie użytkowników Linux pracuje niezwykle stabilnie.

Linux jest oprogramowaniem darmowym, rozprowadzanym na zasadzie licencji GPL (General Public License). Oznacza to, że do wersji wykonywalnych dołączone są pliki źródłowe i każdy, jeśli oczywiście potrafi, może sobie w dowolny sposób zmodyfikować każdą aplikację. Do funkcjonowania systemu oraz wygodnej pracy potrzebne są programy użytkowe, aplikacje dla serwera i interfejs graficzny X Window. Wszystkie te elementy zebrane razem i tworzące działającą wersję nazywa się dystrybucją. Jest wiele dystrybucji Linuxa (co najmniej kilkanaście), z czego najważniejsze to: RedHat, S.u.S.e., Slackware, Debian i Caldera.

W okresie początków Linuxa w Polsce najczęściej używaną jego wersją była dys­trybucja Slackware. Jednak jej znaczenie w dniu dzisiejszym spadło. Obecnie obser­wujemy dwa przeciwstawne kierunki roz­wojowe. Z jednej strony istnieją dystrybu­cje zorientowane komercyjnie, mające zdobyć część rynku systemów UNIX-owych. Ciągle są one dużo tańsze niż renomowa­ne produkty, a jednocześnie porównywal­ne pod względem funkcjonalności. Do­datkowo dzięki zastosowaniu jądra (ang. Kernel) Linu­xa działają one na prawie każdym sprzęcie PC oraz nie wymagają zbyt wielu zaso­bów systemowych. Najlepszym przykła­dem tego kierunku są dystrybucje firmy Caldera.

Na przeciwległym końcu znajdują się pakiety bezpłatne, będące efektem pracy programistów, którzy w ten sposób chcą propagować ideę bezpłatnego oprogra­mowania. Tworzą oni dystrybucje nieko­mercyjne, które służą głównie idei szero­kiego rozpowszechnienia Linuxa. Wśród nich na pierwszym miejscu należy wymie­nić dystrybucję Debian GNU/Linux oraz Red Hat.

Zastosowa­nie maszyny linuksowej jako serwera, oprócz bardzo dobrej stabilności tego systemu, ma tę dodatkową zaletę, że zwalnia nas z konieczności kupowania drogiego, specjalistycznego oprogramowania. Większość potrzebnego w tego typu za­stosowaniach software’u wchodzi bo­wiem w skład dystrybucji Linuxa.

Przeznaczony wyłącznie dla sieci Client-Server.

Novell NetWare

Produkt firmy Novell Incorporated. Oferuje wysoki poziom stabilności pracy i bezpieczeństwa. System Novell NetWare jest obecnie najpopularniejszym systemem sieciowym dla małych, średnich i dużych przedsiębiorstw. Oferuje bardzo duże możliwości zarządzania zasobami sieci powiązane z rewelacyjną wydajnością. Obsługuje systemy wieloprocesorowe co pozwala administratorom na budowę centralnych baz danych bez poświęcania wydajności sieci na rzecz łatwego dostępu do danych.

Pracujący na dedykowanym serwerze Novell NetWare (w wersji od 4.11) oferuje, oprócz tradycyjnych usług w rodzaju współdzielenia plików czy drukarek, także inne, jak routing (dostarczanie danych przez sieć do miejsca przeznaczenia po najlepszej drodze), zarządzanie siecią, zintegrowaną obsługę TCP/IP oraz publikowanie w Internecie (udostępnianie informacji w postaci stron WWW). Zapewnia przy tym ochronę bezpieczeństwa pracy i zasobów użytkowników na wysokim poziomie. Mechanizmy NDS (Novell Directory Services) ułatwiają bezpośredni, szybki dostęp do zasobów sieci bez względu na ich lokalizację. Natomiast rozbudowane mechanizmy zabezpieczeń i kontroli pozwalają na zachowanie poufności danych, szczegółowe regulowanie praw dostępu do zasobów sieciowych, monitorowanie użytkowników itp. Serwer NetWare umożliwia także podłączenie bezdyskowych stacji końcowych, które czytają programy startowe bezpośrednio z serwera. Przeznaczony jest wyłącznie dla sieci Client-Server zarówno LAN jak i MAN oraz WAN.

Microsoft Windows NT

Microsoft Windows NT (ang. Windows New Technology) to sieciowy system operacyjny firmy Microsoft, produkowany z myślą o wydajnych komputerach i zastosowaniach w przemyśle. Występuje w dwóch podstawowych wersjach: Workstation i Server. Wersja Workstation przeznaczona jest dla stacji roboczych natomiast wersja Server dla serwerów sieciowych. W systemie Windows NT postawiono przede wszystkim na niezawodność systemu i bezpieczeństwo, oferując sprawdzony i bardzo wygodny interfejs użytkownika pochodzący ze środowiska Microsoft Windows 95 oraz pełną 32-bitowość.

Windows NT Server umożliwia dostęp do systemu operacyjnego i usług aplikacyjnych na podstawie pojedynczej rejestracji (ang. login) użytkownika. Zapewnia wysoki stopień bezpieczeństwa, realizowany według tego samego modelu dla wszystkich usług sieciowych. Z punktu widzenia administratora, zarządzanie użytkownikami, zasobami sieciowymi (prawami dostępu), a także samym systemem i całą siecią odbywa się w sposób wysoce zintegrowany, z jednej konsoli, za pomocą interfejsu graficznego.

System sieciowy Microsoftu może także służyć jako serwer aplikacji – większość używanych na świecie programów komercyjnych, pracujących wcześniej pod innymi systemami, zostało przeniesionych na platformę NT. Ponadto udostępnia on usługi routingowe oraz DNS – serwer nazw domenowych, zapewniając przekład internetowych adresów komputerowych ze „słownych” na „liczbowe” i odwrotnie, na przykład: www.micros.com na 169.123.102.41. Serwer NT umożliwia również zdalne startowanie bezdyskowych stacji roboczych, podobnie jak w Novell NetWare.

Windows NT daje się zintegrować z siecią Novell NetWare oraz UNIX-ową, współpracuje też z systemami Apple Macintosh. Wśród administratorów systemów zdania na temat systemu Microsoftu są jednak podzielone. Niektórzy mówią o szybkim spadaniu wydajności serwera, gdy liczba obsługiwanych przezeń stacji wzrasta powyżej kilkunastu, innym nie podoba się duża „samodzielność” systemu, który sam rozpoznaje sprzęt czy otoczenie sieciowe i stara się skonfigurować wszystko automatycznie, nie zawsze z powodzeniem. Niewątpliwą zaletą Windows NT jest jego spójność i kompatybilność z szeroką gamą działającego wcześniej oprogramowania.

Microsoft Windows 95/98

Oba te systemy są systemami „pseudosieciowymi” gdyż nie oferują praktycznie żadnej formy zabezpieczeń przed niepowołanym dostępem do zasobów sieci i umożliwiają wyłącznie budowę sieci typu Peer-To-Peer. Ponieważ domyślnym protokołem komunikacji sieciowej w Windows 95/98 jest IPX/SPX, system ten współpracuje z serwerami Novell NetWare i Windows NT.

Pozycjonowanie naturalne

Analizę przeprowadzono na dwóch stronach internetowych: czuchaj.blogspot.com i apartamentybiznes.com. Każda z nich pozycjonowana była na cztery różne frazy kluczowe.

Pozycjonowanie polegało na próbie zaciekawienia użytkowników serwisami, tak aby sami Internauci promowali strony. Sami użytkownicy mieli doprowadzić do wypozycjonowania witryn na słowa kluczowe, które były najbardziej powiązane z ich tematyką.

Tabele przedstawiają uśrednione pozycję strony w wynikach wyszukiwania na poszczególne frazy.

Tabela 4 Średnia pozycja w wynikach wyszukiwania dla strony czuchaj.blogspot.com

Słowo kluczowe Średnia pozycja
dane osobowe brak w wynikach
ochrona danych osobowych 253
prawo nowoczesnych technologii 1
prawo własności intelektualnej brak w wynikach

Źródło: Opracowanie własne na podstawie wyników w wyszukiwarce google.pl

Z powyższej tabeli wynika, że pozycjonowanie nie przyniosło zamierzonego efektu. Tylko dla jednej frazy strona znalazła się bardzo wysoko w wynikach wyszukiwania. Należy dodać, że frazy „prawo nowoczesnych technologii” i „prawo własności intelektualnej” należą do bardzo prostych fraz do wypozycjonowania. Pozostałe dwie frazy są frazami trudnymi.

Tabela 5 Średnia pozycja w wynikach wyszukiwania dla strony apartamentybiznes.com

Słowo kluczowe Średnia pozycja
apartamenty Kraków 109
apartamenty w Krakowie 298
wynajem apartamentów 12
wynajem mieszkań 67

Źródło: Opracowanie własne na podstawie wyników w wyszukiwarce google.pl

Z powyższej tabeli wynika, że pozycjonowanie nie przyniosło zamierzonego efektu. W tym przypadku okazało się efektywniejsze niż w poprzednim, ale wciąż bardzo dużo brakuje mu do ideału. Tylko jedna fraza osiągnęła pozycję, którą można uznać za dość wysoką. Należy jednak dodać, że wszystkie pozycjonowane frazy należą do fraz trudnych. Podsumowując wyniki pozycjonowania naturalnego można śmiało stwierdzić, że wyniki wskazują na małą skuteczność tego rodzaju pozycjonowania. Zarówno w przypadku pierwszym – łatwych fraz, jak i w przypadku drugim – znacznie trudniejszych fraz badania pokazują nieskuteczność tej metody.