Projektowanie sieci komputerowej

4.1. Podstawowe wiadomości

Rozrost Internetu, a wraz z nim rozwój technologii sieciowych spowodował, że coraz więcej instytucji oferuje możliwość dostępu do Internetu i jego zasobów. Obok firm zapewniających dostęp pojawiło się także dużo takich, które oferują zaprojektowanie, oraz implementację sieci na potrzeby użytkownika (dla firm, klientów indywidualnych itp.). Ponieważ usługa ta nie jest tania, bardzo dobrym rozwiązaniem jest samodzielne zaprojektowanie i wdrożenie sieci, jedyny koszt w takim wypadku związany jest z zakupem urządzeń sieciowych oraz ewentualnie medium.

Zaprojektowanie sieci komputerowej nie jest procesem trudnym, należy jedynie przestrzegać kilku zasad, do których należą między innymi wizja lokalna, wybór medium transmisyjnego, wybór topologii, dobór sprzętu itp. Wszystkie etapy pro­jektowanie opisałam w dalszej części tego rozdziału.

4.1.1. Określenie celów

W czasie projektowania zarówno sieci LAN jak i WLAN pierwszą rzeczą jaką trzeba zrobić jest określenie wymagań jakie sieć ta ma spełniać. Aby określić wymagania w pierwszej kolejności należy zastanowić się nad kilkoma aspektami sieci, a mianowicie:

  • przepustowości sieci – dobór takiej przepustowości, aby zagwarantować do­stęp do podstawowych usług oferowanych przez sieć komputerową kazdemu uzytkownikowi. Związany jest on z wyborem technologii (Rozdział 1.1.1), czy też standardu (Rozdział 1.2.1) jaki w sieci zostanie zastosowany;
  • liczby użytkowników – liczba klientów jaka ma z tej sieci korzystać, uwzględ­niając przyszły rozrost sieci;
  • medium transmisyjne – dokładnie opisane w punkcie 4.1.2. W przypadku wyboru transmisji bezprzewodowej, dodatkowo należy określić wymagania co do: zasięgu sieci, mobilności jak również bezpieczeństwa.

Następnie należy przeprowadzić wizję lokalną miejsca, w którym sieć ma zostać zaimplementowana. W czasie przeprowadzania wizji lokalnej powinno się zebrać informacje na temat samego budynku:

  • rozmieszczenia okien i drzwi,
  • wystąpienie nowych elementów działowych,
  • rozmieszczenia gniazdek elektrycznych,
  • określenia występowania okablowania strukturalnego,
  • określenia rodzaju materiału z jakiego zostały wykonane okna i drzwi (w przy­padku WLAN, gdyż niektóre materiały powodują osłabienie transmisji),
  • określenia rodzaju materiału z jakich zostały wykonane sufity i ściany, oraz ich grubości (w przypadku WLAN, gdyż niektóre materiały powodują osła­bienie transmisji).

W czasie określania wymagań jakie sieć ma spełniać należy ustalić priorytet po­szczególnych celów, gdyż może się zdarzyć, że nie wszystkie z nich możliwe są do osiągnięcia. W takim właśnie przypadku w pierwszej kolejności realizowane będą najważniejsze aspekty.

4.1.2. Wybór medium

Aby przetransmitować dane pomiędzy komputerami obecnie wykorzystuje się:

  • prąd elektryczny,
  • mikrofale,
  • fale świetlne,
  • fale radiowe.

Biorąc pod uwagę sposób transmisji danych, media transmisyjne dzielimy na: prze­wodowe i bezprzewodowe. Do przewodowych mediów (transmisja danych po­przez przewód) należą: kabel koncentryczny, skrętka oraz włókno światłowodowe. Natomiast do bezprzewodowych mediów (transmisja danych poprzez powietrze) zaliczamy: fale radiowe, mikrofale, promieniowanie podczerwone oraz łącza sate­litarne.

ciąg dalszy tej pracy magisterskiej nastąpi…

Projektowanie sieci komputerowych LAN i WLAN z uwzględnieniem telefonii VoIP

Streszczenie pracy

Niniejsza praca poświęcona jest projektowaniu lokalnych sieci komputerowych, przewodowych i bezprzewodowych, z uwzględnieniem technologii VoIP. Pierw­sza część pracy zawiera informacje związane zarówno z samymi sieciami kom­puterowymi, jak również zagadnieniami z nimi związanymi. Informacje zawarte w rozdziale pierwszym poświęcone są sieciom LAN oraz WLAN. W rozdziale dru­gim znajdują się informacje dotyczące protokołu TCP/IP, natomiast rozdział trzeci opisuje technologię VoIP. Druga część pracy poświęcona jest projektowaniu sieci LAN i WLAN, część ta składa się z dwóch rozdziałów. Rozdział czwarty opisuje sposób projektowania sieci komputerowych LAN i WLAN. Ostatni rozdział pra­cy został poświęcony zaprojektowaniu sieci komputerowej w szkole podstawowej, pokazuje on w jaki sposób należy projektować sieci komputerowe.

Słowa kluczowe

lokalne sieci komputerowe, bezprzewodowe sieci komputerowe, protokół między- sieciowy, protokół sterowania transmisją, transmisja głosu w pakietach IP

Keywords

Local Area Networks, Wireless LAN, Internet Protocol, Transmission Control Protocol, Voice over IP

Klasyfikacja tematyczna według UKD

621.3 – Elektrotechnika. Elektronika.

Rodzaje transformacji danych w modelowanym SIE

Niemożność całkowitego sformalizowania opisu modelowanego SIE implikuje określone następstwa w odniesieniu do sposobów przetwarzania (transformacji) informacji w modelowanym SIE (rys.4.3.).

Rys.4.3. Logiczny łańcuch przyczyn i następstw niesformalizowanego opisu modelowanego SIE [8]

 

W procesie informacyjnym, realizowanym przez modelowany SIE wyróżnić można dwie zasadnicze operacje transformacji danych, które od celu i sposobu realizacji nazwano w kolejności chronologicznej:

  • – algorytmiczną transformację identyfikacyjno-ocenową,
  • – heurystyczną transformację ineterpretacyjno-decyzyjną.

Strukturę chronologiczną transformacji danych przedstawiono na rys. 4.4.

Wyszczególnione rodzaje transformacji pozostają w ścisłym związku z konstytuowanym modelem SIE, który jako model nieformalny nie może stanowić podstawy do zbudowania w pełni zalgorytmizowanej procedury przetwarzania danych.

Rys.4.4. Struktura chronologiczna transformacji danych w modelowanym SIE

 

Z faktu, że procedury przetwarzania danych mają charakter niealgorytmiczny wynika niemożność jednoznacznego określenia danych wejściowych (do SIE), niosących informację użyteczną.

Nie jest to jednak mankamentem modelowanego SIE, lecz jego właściwością, która stanowi podstawę założeń odnośnie adaptacyjności SIE rozumianej w sensie elastyczności działania jego podsystemów. Te cechy modelowanego systemu, należące do obszaru cech wtórnych, implikowane są, jak już wcześniej stwierdzono, faktem iż SZPS, względem którego SIE pełni funkcje użytkowe, jest systemem rozwijającym się.

[na tym kończymy w tym roku prezentację tej pracy magisterskiej]

Wymagania techniczne programu Joomla!

praca magisterska z 2008 roku

Jest kilka technicznych wymogów dla skutecznego stworzenia strony internetowej.

  • Komputer

To nasze podstawowe narzędzie pracy. By móc na nim komfortowo działać potrzebujemy przynajmniej średniej klasy komputera – nawet komputer sprzed 2-3 lat będzie do tego celu odpowiedni. Wiadomo jednak, że nowszy komputer gwarantuje mniejsza awaryjność, ponadto pozwala na znaczne oszczędności czasu, ponieważ szybszy jest dostęp do danych i proces ich przetwarzania. Może to być przydatne w szczególności podczas pracy z edytorami graficznymi wymagającymi dużej mocy obliczeniowej procesora oraz wydajnej karty graficznej. Odpowiednia ilość pamięci operacyjnej (RAM) – 1 GB lub więcej również znacząco poprawi komfort pracy.

  • Dostęp do Internetu

W dzisiejszych czasach dostęp do sieci Internet staje się czymś powszechnym i pożądanym jak dostęp do telefonu, telewizji czy wręcz energii elektrycznej. Aby móc publikować stronę czy dodawać do niej zawartość, potrzebny jest stały dostęp do Internetu, a jeśli nie stały, to choćby czasowy, np. z kafejki internetowej.

  • Klient FTP

FTP (ang. File Transfer Protocol) jest standardowym protokołem służącym do transmisji plików przez Internet. Wgrywanie plików na serwer poprzez protokół FTP wymaga specjalnego oprogramowania tzw. klienta FTP, który pozwala wgrać dowolny plik na zdalny serwer lub ściągnąć go z serwera. W funkcje klienta FTP wyposażone są obecnie prawie wszystkie popularne przeglądarki internetowe. Jeśli chcemy użyć przeglądarki w trybie FTP, to w polu adresu na pierwszej pozycji wpisujemy nie http://, ale ftp://. Następnie wpisujemy adres serwera. Po nawiązaniu połączenia z serwerem, musimy podać odpowiedni login i hasło celem autoryzacji i już po chwili można wysyłać i odbierać pliki.

Jednak za używaniem wyspecjalizowanych klientów FTP przemawia wiele argumentów, m.in[1]:

  • większa prędkość transferu,
  • wznawianie niedokończonych transferów,
  • budowa zbliżona do menadżera plików (intuicyjna, prosta obsługa),
  • wykorzystanie techniki „przeciągnij i upuść”,
  • możliwość edycji i przechowywania haseł dostępu,
  • synchronizacja katalogów,
  • układanie zadań w kolej ce,
  • podgląd postępu kopiowania i kasowania,
  • edycja katalogów i plików na koncie(np. modyfikacja nazw i rozszerzeń),
  • szyfrowanie transmisji.

Przykładowymi klientami FTP są SmartFTP, FileZilla, WinSCP, Total Commander. Do zarządzania plikami konta użyłem programu darmowego programu WinSCP, który umożliwia realizację bezpiecznego połączenia szyfrowanego.

  • Przeglądarka internetowa

Przeglądarka internetowa jest programem komputerowym służącym do przeglądania stron WWW. Na większości komputerów PC z zainstalowanym systemem operacyjnym Microsoft Windows domyślną przeglądarką jest Internet Explorer.

W systemie CMS zarządzanie stroną (tworzenie nowych stron czy edycja ich zawartości) odbywa się za pomocą panelu administracyjnego – wydzielonej części serwisu WWW dostępnej tylko dla użytkowników posiadających konto i odpowiednie uprawnienia. Zasada działania panelu administracyjnego jest podobna do obsługi poczty elektronicznej lub internetowego konta bankowego. Aplikacja CMS pracuje na serwerze WWW, a do jej obsługi wystarcza standardowa przeglądarka internetowa oraz podstawowa znajomość oprogramowania biurowego – dzięki temu rozwiązaniu nie ma konieczności instalowania dodatkowego oprogramowania na komputerach osób współtworzących serwis. Przeważająca część paneli administracyjnych swoją pełną funkcjonalność prezentuje właśnie w przeglądarce IE, jest jednak sporo takich systemów, które działają równie dobrze, jeśli nie lepiej, w alternatywnych przeglądarkach stron WWW. W przygotowaniu projektu użyłem właśnie takiej przeglądarki, jaką jest Mozilla Firefox, która należy do rodziny darmowych przeglądarek dostępnych dla systemów operacyjnych Windows, GNU/Linux i Mac OS X. Jest szybka, zajmuje mało miejsca, a jednocześnie oferuje szerokie możliwości.

  • Miejsce w sieci

Żeby umieścić stronę WWW w Internecie potrzebna jest odpowiednia ilość powierzchni dyskowej i komputer podłączony do sieci Internet, jednak niewiele osób dysponuje komputerem z zainstalowanym oprogramowaniem serwera WWW czynnym 24 godziny na dobę i podłączonym do Internetu odpowiednio szybkim łączem[2]. Z rozwiązaniem tego problemu przychodzą nam darmowe lub płatne usługi serwerów WWW, na których można umieścić pliki składające się na serwis internetowy. Opublikowanie serwisu na serwerze WWW jest podstawą zaistnienia każdej strony w Internecie. Serwer wirtualny podobnie jak hosting, jest usługą, którą provider internetowy świadczy na rzecz swoich klientów. Różnica tkwi w tym, iż serwer wirtualny to emulacja serwera fizycznego, czyli otrzymujemy możliwość administracji zasobami serwera, kontami, prawami dostępu. Z serwerów wirtualnych korzystają zazwyczaj firmy, które potrzebują dużej ilości miejsca na pliki, wielu skrzynek pocztowych, dużego transferu itd.

Z kolei hosting to prosta usługa internetowa, która polega na goszczeniu klienta i udostępnieniu mu zazwyczaj jednego konta na strony WWW z dostępem poprzez klienta FTP oraz skrzynkę e-mail. Hosting jest oferowany najczęściej w formie gotowych pakietów obejmujących szereg usług dodatkowych, jak dostęp do konta przez FTP, wbudowane oprogramowanie bazy danych, zarządzanie kontem poprzez panel administracyjny, rejestracja bądź przeniesienie domeny. Darmowy hosting jest dobry do stawiania pierwszych kroków w Internecie, lecz oprócz zalet niesie z sobą niedogodności w postaci:

  • niemożność powiększania konta o dodatkową powierzchnię,
  • ograniczone transfery, co powoduje wolne wczytywanie stron WWW,
  • ukazywanie się reklam w naszym serwisie, choć nie zawsze jest to regułą,
  • ograniczone możliwości konfiguracji,
  • spora awaryjność konta,
  • w przypadku zawieszenia usług operator może skasować konto bez powiadomienia,
  • brak kopii zapasowych.

Konto płatne pozbawione jest tych wad. Podczas sprawdzania oferty płatnych firm hostingowych, należy zaczerpnąć wszystkich możliwych informacji o parametrach konta i warunkach, na jakich jest ono udostępniane.

Przy wybieraniu konta należy zwrócić uwagę na następujące parametry (tab.2):

  • wyrażona w megabajtach lub gigabajtach ilość dostępnego miejsca, która określi rozmiary naszego serwisu. Często również spotyka się z informacją określającą maksymalny rozmiar pliku,
  • wielkość transferu, który określa limit danych, jakie można przesłać i pobrać z serwera użytkownika w danym okresie, np. przez miesiąc lub rok. Jeżeli internauci będą pobierać z naszej strony duże pliki graficzne lub filmy, to potrzebny jest bardzo duży transfer – ok. 20 GB miesięcznie, jeśli strona służy do przeglądania informacji wystarczy transfer rzędu 4 GB miesięcznie. Należy zwrócić uwagę, że wartość zapotrzebowania transferu zwykle ulega zmianie, gdyż popularność serwisu może rosnąć lub maleć. Również nie każde odwiedziny internauty wiążą się z takim samym zużyciem transferu, gdyż często przeglądarki zapisują na dysku użytkownika pliki tymczasowe, najczęściej pliki graficzne z danej strony, tylko po to, aby przy następnym wejściu na stronę nie pobierać całej zawartości od nowa, co zapewnia większość prędkość odczytania strony oraz zmniejszenia obciążenia serwera,
  • liczba baz danych, np. MySQL. Baza danych to nieodłączny element serwisów WWW. W połączeniu z językiem programowania PHP daje ona przeogromne możliwości tworzenia witryn,
  • dodatkowe możliwości techniczne, np. obsługiwane standardy programowania PHP, CGI, ASP. Jeśli nasz serwis jest zaprojektowany w języku PHP, a serwer nie posiada jego obsługi, uniemożliwi to wyświetlenie witryny.

Przed wykupieniem serwera w danej firmie, należy wcześniej skorzystać z opcji bezpłatnego testowania usługi. Tylko wtedy będziemy mieć pewność co do odpowiedniego działania serwera, łatwości jego administrowania oraz konfiguracji.

Tabela 2. Przykładowe zestawienie usług hostingowych na dzień 10.07.2008

Nazwa firmy Yoyo.pl EasyISP.pl WebSerwer.pl Home.pl
Pojemność serwera 150 MB 500 MB 5 GB 20 GB
Transfer miesięczny bez limitu 10 GB 25 GB 900 GB
liczba baz MySQL 1 1 1 100
Liczba domen bez limitu bez limitu bez limitu bez limitu
Moduł phpMyAdmin[3] tak tak tak tak
Panel administracyjny[4] WebAdmin Direct Admin WebAdmin WebAdmin
liczba kont FTP 1 1 1 bez limitu
Konta pocztowe 1 15 bez limitu bez limitu
Test konta 7 dni 14 dni 30 dni
Opłata roczna brutto darmowe 79,30 zł 363,56 zł 549,10 zł
  • Domena

Domena internetowa to alfanumeryczne tłumaczenie adresu IP identyfikującego każdy komputer podłączony do Internetu. Dla użytkownika jest to nazwa wskazująca położenie określonej strony WWW w sieci. Z prawnego punku widzenia, domena internetowa to znak o określonej wartości majątkowej, wynikającej z jego funkcji odróżniającej oraz faktycznej wyłączności w zakresie jego użytkowania. Jedynie osoba lub firma, instytucja, która zarejestrowała tę domenę jest prawnym posiadaczem na okres zawarty w umowie. Rejestracja domeny internetowej kreuje jedynie umowne prawa i obowiązki wynikające z umowy z rejestratorem (pośrednikiem) i nie powoduje powstania po stronie jej dysponenta żadnego wyłączonego prawa do domeny internetowej[5]. Użycie domeny nie jest możliwe, dopóki nie zostanie ona zarejestrowana. Nie jest możliwe zarejestrowanie domeny należącej już do kogoś innego. W każdym kraju istnieje jednostka odpowiedzialna za zarządzanie rynkiem rejestracji domen internetowych. Rejestracją domen w Polsce zarządza NASK – Naukowa i Akademicka Sieć Komputerowa, która została utworzona przy Uniwersytecie Warszawskim w 1991 roku. Aby móc zarejestrować domenę trzeba spełniać następujące warunki: domena musi być wolna oraz należy mieć ukończone 18 lat.

  • Środowisko implementacji

Do opracowania projektu wykorzystany został komputer o następującej konfiguracji:

  • procesor AMD Athlon™ 800MHz, 512 MB RAM, dysk twardy Seagate 80GB, karta graficzna NVIDIA GeForce2,
  • system operacyjny Windows XP Professional PL,
  • przeglądarka internetowa Mozilla Firefox wersj a 3.0,
  • edytor grafi czny GIMP 2.4.6,
  • pakiet WebServ, w którego skład wchodzą[6]:

o Apache 2.2.6 – jest to wiodący program do obsługi serwerów HTTP na całym świecie. WebServ zapewnia w pełni darmowy i stabilny program stosowany przez wielu użytkowników oraz firmy hostingowe na świecie,

o PHP 4.4.7 – jest zaliczany do najnowszych technologii, choć korzenie tego programowania sięgają początków Internetu. Przy użyciu tego narzędzia można stworzyć własną dynamiczną stronę internetową, o MySQL 5.0.45 – to jeden z najpopularniejszych darmowych silników relacyjnych baz danych. Jego atutem jest szybkość i funkcjonalność, a w połączeniu ze skryptami PHP umożliwia prawidłowe działanie oraz ogromną funkcjonalność dla dynamicznych stron,

o Perl 5.10.0 – Perl to interpretowany język programowania autorstwa Larry’ego Walla przeznaczony głównie do pracy z danymi tekstowymi, ale również doskonale radzący sobie z wszystkimi potrzebami programisty czy administratora systemu,

o MySQL Control Center 0.9.4 – graficzna aplikacją służąca do sprawnego zarządzanie bazami danych MySQL,

o CesarFTP 0.99g – CesarFTP jest to serwer FTP. Jeśli udostępniamy konto WWW osobie, która nie ma bezpośredniego dostępu do naszego komputera, będzie mogła zarządzać swoimi plikami z każdego miejsca na świecie, dodatkowo takich osób z kontami WWW na naszym serwerze może być wiele,

o Webalizer 2.1 – jest dostępnym na licencji GPL analizatorem logów serwera Apache. Generuje szczegółowe statystyki odwiedzin danego serwisu WWW w formacie HTML,

o No-IP Dynamic Update Client 2.2.1 – dzięki No-IP możemy posiadać wiele własnych domen. Wystarczy wpisać w przeglądarce adres strony no-ip.com, zarejestrować się, a następnie w panelu administracyjnym wpisać wybrane przez siebie domeny,

o DynDNS Update Client 3.1.0.15 – aplikacja która mapuje nazwę komputera na adres IP,

o phpMyAdmin 2.11.4 – to napisane w języku PHP narzędzie służące do łatwego zarządzania bazą danych MySQL.

WebServ jest pakietem umożliwiającym uruchomienie serwera WWW z obsługą PHP i MySQL na komputerze bez łączenia się z Internetem. Dzięki temu możemy w całości wykonać projekt na lokalnym komputerze, a następnie umieścić go w sieci. Oczywiście Joomla! umożliwia tworzenie portalu WWW bezpośrednio na serwerze naszego dostawcy hostingowego. Używanie programu WebServ nie jest konieczne, lecz wygodniejsze.

[1]   Zeldman J., „Projektowanie serwisów WWW. Standardy sieciowe.”, Helion, Gliwice 2007

[2]  Jarosz D., „Płatny hosting czyli gdzie się ulokować”, Magazyn Internet 2006

[3]   phpMyAdmin jest narzędziem pozwalającym zarządzać bazą MySQL. Program ten zapewnia realizację wszystkich podstawowych funkcji: tworzenie i usuwanie tabel, umieszczanie rekordów oraz admini stracj ę bazą

[4]   Panel administracyjny to bogaty zestaw skryptów i aplikacji służący do zarządzania serwerem WWW, e-mail i FTP oraz kilkoma innymi usługami. Za jego pomocą można kontrolować ustawienia serwera

[5]   Kolbusz E., „Informatyka w zarządzaniu”, Zeszyt naukowy Instytutu Informatyki w Zarządzaniu, Uniwersytet Szczeciński, Szczecin 1999

Konfiguracja serwera proxy

Jedną z ważniejszych rzeczy jest pamięć o konieczności dodania serwera proxy do /etc/inetd.conf. Aby móc odpowiedzieć na żądania należy dopisać następującą linię:

socks stream tcp nowait nobody /usr/local/etc/sockd sockd

Konfiguracja serwera proxy

Program SOCKS potrzebuje dwóch oddzielnych plików konfiguracyjnych. Jeden z nich mówi o tym komu udzielić dostępu a drugi w jaki sposób przekazywać żądania do właściwego serwera proxy. Plik decydujący o dostępie powinien znajdować się na serwerze. Plik dotyczący przekazywania dostępu (routingu) powinien znajdować się na każdej z maszyn Unixowych. W wypadku DOSa i częściowo MaCów komputery powinny mieć swój własny routing.

Plik dostępu (Access File)

W wersji 4.2 Beta SOCSKsów plik dostępu nazywa się ” sockd.conf ” . powinien zawierać dwie linie: zezwolenia i zakazu. Każda z linii posiada trzy pozycje:

identyfikator (permit/deny)

adres IP

modyfikator adresu

Identyfikator to permit lub deny Generalnie powinno się użyć obu: każdy we właściwej linii. Adres IP powinien zawierać czterobajtowy adres w typowej dal IP notacji. np. 192.168.2.0. Modyfikator adresu także jest normalnym IP i pracuje jak maska. Rozwinięcie tego adresu da 32 bity (1 albo zero).

Na przykład, w tej linii:

permit 192.168.2.23 255.255.255.255

administrator zezwala na dostęp maszynom w których adres pasuje co do bitu z zadanym: pasuje tu tylko 192.168.2.23

permit 192.168.2.0 255.255.255.0

administrator zezwala na dostęp maszynom z gdyby od 192.168.2.0 do 192.168.2.255, w formie całej klasy C.

Nie powinno się zamieszczać następującej linii:

permit 192.168.2.0 0.0.0.0

dającej dostęp dla wszystkich adresów.

Tak więc pierwsza linia daje zezwolenie dla tych adresów którym chcemy go dać, a druga zakazuje reszcie. Aby zezwolić na dostęp wszystkim z klasy 192.168.2.xxx potrzeba linii:

permit 192.168.2.0 255.255.255.0

deny 0.0.0.0 0.0.0.0

Należy zwrócić uwagę na pierwsze ” 0.0.0.0 ” w linii zakazu. Z maską 0.0.0.0 taki adres nie istnieje. Wszystkie zera zostały tam wprowadzone bo są łatwe do zapisu.

Dopuszczalne jest umieszczenie większej ilości jeden zapisów w każdej z linii. Konkretni użytkownicy mogą ponadto otrzymać lub tracić prawo dostępu. jest to wykonywane przy pomocy autentyfikacji przy pomocy ident.

Tablica trasowania

Tablica routingu w SOCS jest nazywana socks.conf.

Tablica routingu mówi klientom SOCKS kiedy używać socks a kiedy nie. Na przykład, w naszej sieci 192.168.2.3 nie potrzebuje używania socks do połączenia z 192.168.2.1. Po prostu łączy się bezpośrednio, za pomocą Ethernetu, definiuje się automatycznie 127.0.0.1 jako loopback. Oczywiste jest, że nie potrzebujemy rozmawiać przez ścianę ogniową z samym sobą.

Występują trzy typy rekordów:

  • deny
  • direct
  • sockd

Denymówi SOCKS kiedy ma odmówić żądaniu. Rekord ten ma takie same trzy pola jak sockd.conf: identyfikator, adres i maska. Ogólnie, dopóki jest to modyfikowane przez sockd.conf, maska w pliku dostępu jest ustawiona na 0.0.0.0. Jeśli chcemy pozwolić na dzwonienie do siebie możemy to zrobić tutaj.Rekord directmówi które do których adresów nie używać SOCKS. Te adresy będą doręczone bez serwera proxy.

Podsumowując: mamy trzy pola: identyfikator, adres i maska.

direct 192.168.2.0 255.255.255.0

W ten sposób kierujemy bezpośrednio cały ruch w chronionej sieci.

Rekord z sockdmówi komputerowi które z hostów są serwerem SOCKS

Składnia jest następująca:

sockd @=<serverlist> <IP address> <modifier>

Należy uwagę na fragment: @= . Pozwala on na wprowadzenie listy serwerów proxy. W naszym przykładzie używamy tylko jednego. Ale możemy mieć wiele w celu zwiększenia przepustowości i obniżenia możliwości awarii.

Pola adresu IP i maski działają jak w innych przykładach. Specyfikujemy adres i zakres jego obowiązywania DNS zza firewalla. Do ustawienie usługi DNS zza firewalla potrzeba jedynie ustawienia DNS na maszynie z firewallem i inne maszyny za firewallem będą go używały.
Współpraca z serwerami proxy

Aby nasze aplikacje działały z serwerami proxy potrzebujemy dwóch różnych telnetów (jeden do komunikacji bezpośredniej drugi przez serwer proxy). SOCKS przychodzą z instrukcją jak obsługiwać (sockified) program, i z kilkoma programami przygotowanymi według odpowiednich zasad. Jeśli używamy sockified (nieprzetłumaczalne) wersji gdziekolwiek bezpośrednio, SOCKS automatycznie przełączy nas na właściwą wersję. Z tego powodu trzeba zmienić nazwy wszystkich programów w naszej chronionej sieci i zstąpić je wersjami sockified. Finger stanie się finger.orig, telnet stanie się telnet.origi tak dalej. Musimy powinformować SOCKS o każdym w pliku include/socks.h.

Dobre programy są w stanie dostarczać tablic trasowania i same przełączyć się do pracy w trybie sockified. Jednym z nich jest Netscape Navigator. Możemy używać serwerów proxy przez wprowadzenie adresu serwera (192.168.2.1 w naszym wypadku) w polu SOCKs w Menu Proxies. Każda aplikacja potrzebuje przynajmniej minimalnej informacji o tym co jest serwerem proxy.

Znaczenie informacji w kosztach eksploatacji obiektów technicznych

Skuteczność funkcjonowania systemu eksploatacji obiektów technicznych zależy w dużej mierze od dopływu odpowiednich informacji.

Menadżerowie przedsiębiorstw w oparciu o dostarczane informacje podejmują istotne decyzje, niekiedy strategiczne dla funkcjonowania przedsiębiorstw. Decyzje te jednak opierają się przeważnie na niepełnych bądź zniekształconych informacjach, a w szczególności informacjach dotyczących kosztów wytwarzania. Stąd też większość przedsiębiorstw taki stan stwierdza wówczas gdy wyraźnie obniża się ich poziom konkurencyjności i gdy gwałtownie zmniejszają się ich zyski.

Przyczyną tego jest między innymi niewłaściwie zorganizowany system informacyjny i zarządzanie nim. Koszty pracy bezpośredniej i materiałów, a więc najważniejsze wśród kosztów produkcji, z łatwością można powiązać z poszczególnymi produktami, natomiast bardzo trudno ustalić koszty pośrednie.

Obecnie w wielu nowoczesnych zakładach występują linie produkcyjne, gdzie praca bezpośrednia stanowi mały ułamek kosztów przedsiębiorstwa. Jednocześnie rosną koszty działalności pomocniczej a w niej koszty utrzymania ruchu.

W pracy [18] przedstawiono wyniki badań dotyczących analizy kosztów wydziałowych. Stwierdzono że: „jednym z istotnych składników, w którym należy poszukiwać rezerw kosztowych, są koszty wydziałowe”. Udział kosztów wydziałowych w całości kosztów wyniósł 20,8% (a przy produkcji odlewniczej nawet 50,2%). Analiza udziałów procentowych oraz wartości poszczególnych składników pozwoliła na sformułowanie wniosku, że jednym z dość istotnych elementów kosztów wydziałowych są wysokie koszty napraw a podejmowanie decyzji naprawczych powinno opierać się na wiarygodnych informacjach otrzymywanych z procesu eksploatacji maszyn i urządzeń. Stąd też konieczne jest utworzenie odpowiedniego systemu zbierania i przetwarzania danych eksploatacyjnych tych obiektów.

W pracy [4] jako główne przyczyny słabości rozwiązań eksploatacyjnych wskazano między innymi:

  • – niemożność dostarczenia przez systemy informacyjne niezbędnych danych do oceny eksploatacji i kosztów z nią związanych,
  • – brak niezbędnych wskaźników wydajności do oceny kierowania eksploatacją,
  • – fakt, iż menedżerowie odpowiedzialni za eksploatację systemów technicznych nie są w stanie w sposób obiektywny ocenić działalności swojej i swoich podwładnych,

Kontrola czasu życia urządzeń, oczekiwanego oraz łącznego czasu ich życia, kosztów eksploatacji w zestawieniu z kosztami odtworzenia, zbieranie danych niezbędnych do realizacji zaplanowanej wymiany każdej części i realizacji planu wymiany stanowią podstawę do opracowania standardów i wskaźników dla potrzeb eksploatacji systemów technicznych.

Serwer proxy

Dopóki wszystkie trzy poziomu będą możliwe do pracy w ramach wyznaczonych zadań będą potrzebowały dostępu do sieci. Zewnętrzna sieć jest połączona bezpośrednio z internetem, tak więc nie ma tu zastosowania dla serwera pośredniczącego. Sieci Mercenary i Troop znajdują się za ścianą ogniową więc potrzebny jest im serwer proxy. Konfiguracja obu jest bardzo podobna. Oba mają takie same adresu IP. Jedyna różnica polega na nieco innych parametrach.

  1. Nie każdy może użyć serwera plików dla dostępu do Interntu, ponieważ wystawia to go na wirusy i ataki.
  2. Nie chcemy zezwolić sieci Troop na dostęp do WWW.

Po założeniu powyższych kryteriów w pliku sockd.conf w linuxie w sieci Troop znajdzie się następująca linia.

deny 192.168.2.17 255.255.255.255

a w stacji przeznaczonej dla Mercenary:

deny 192.168.2.23 255.255.255.255

W stacji linuxowej sieci Troop należy umieścić wpis:

deny 0.0.0.0 0.0.0.0 eq 80

Ta linia informuje o zabronionym dostępie dla wszystkich maszyn próbującym się dostać do portu równego (eq) 80 (http). Nadal pozwalamy  na dostęp do wszystkich usług z wyjątkiem WWW.

Teraz oba pliki powinny zawierać linie:

permit 192.168.2.0 255.255.255.0

by zezwolić wszystkim komputerom z sieci 192.168.2.xxx na użycie tego serwera pośredniczącego zamiast tego który został zakazany (np. serwer plików i dostęp do WWW z sieci Troop).

W sieci Troop w pliku sockd.confpowinien wyglądać następująco:

  • deny 192.168.2.17 255.255.255.255
  • deny 0.0.0.0 0.0.0.0 eq 80
  • permit 192.168.2.0 255.255.255.0

a w sieci Mercenary w ten sposób:

  • deny 192.168.2.23 255.255.255.255
  • permit 192.168.2.0 255.255.255.0

Takie ustawienia powinny zakończyć konfigurację wszystkiego.

Każda z sieci jest teraz izolowana, z prawidłowymi ustawieniami interakcji.

Przygotowanie Windows NT do połączenia z Internetem

Wiadomością na dobry początek jest, że domyślnie skonfigurowany Windows NT nie współpracuje z najbardziej niebezpiecznymi usługami Internetu. Niestety, chwyty pozwalające skutecznie zaatakować UNIX, są często równie skuteczne przeciwko Windows NT.
Zanim zaczniemy analizę pojęć i problemów związanych z ochroną systemów współpracujących z Internetem, przejrzymy krótko wewnętrzne rozwiązania, chroniące sieć Windows NT. Można je podzielić na cztery podstawowe grupy:

  1. Weryfikacja procesu rejestracji.
  2. Ochrona obiektów.
  3. Prawa użytkownika
  4. Nadzór.

Bezbłędnie skonfigurowane podsystemy ochronne Windows NT gwarantują bardzo bezpieczne środowisko sieciowe dla lokalnych i rozległych sieci korporacyjnych. Nawet doskonałe narzędzia Windows NT nie dają pełnej gwarancji bezpieczeństwa w związku z działalnością hakerów.

Macierzowe modelowanie niezawodności początkowej elementów maszyn

Poziom niezawodności początkowej (technicznej) każdego elementu jest  modelowany głownie w sferze projektowania za pomocą zbioru cech  związanych z dokładnością   wymiarowo – kształtową Dwk,  materiałem Wm, stanem warstwy wierzchniej ( W W ) Sww oraz podzbiorem cech modelowanych  w montażu Me. Zbiór ten powinien być ustalony w ten sposób, żeby , ukształtowany poziom niezawodności początkowej zagwarantował następnie określony przebieg funkcji niezawodności elementu w czasie jego istnienia i (życia).

Funkcja niezawodności powinna być kształtowana w zakładowej czy też branżowej strukturze systemu jakości określonego ogólnie grupą norm ISO 9000 [7, 14] obejmującym wszystkie istotne etapy związane z pow­stawaniem i istnieniem elementu, co można przedstawić pętlą jakości (rys. 7). Pomimo że wymienione normy traktują niezawodność jako jedną z cech jakości, to jednak należy pamiętać, iż cecha ta decydująco stanowi o bezpieczeństwie obiektów mechanicznych, ich kosztach eksploatacji oraz jest w dalszym ciągu głównym przekonującym argumentem w ekspansji  na światowym rynku.

O ważności właściwego kształtowania niezawodności elementów maszyn w aspekcie ich jakości świadczą najlepiej opracowane metody prognozowania trwałości elementów z wykorzystaniem techniki komputerowej [24], wspomagające projektowanie obiektów. W podobnym zamiarze czynione są przedsięwzięcia w sferze wytwarzania, szczególnie w zakresie doboru wariantów i struktury procesy, warunków obróbki, kontroli procesu [1, 2] nawet monitorowania tzw. „procesów specjalnych „.

Uwzględnianie dużej liczby aspektów ekonomicznych i fizycz­nych w badaniach, w ujęciu systemowym, wymaga przede wszystkim opisywanie obszaru zdatności  Wz

w formie zwartej, a jednocześnie przejrzystej, wygodnej do zaprogramowania komputerowego [27]. Uwarunkowania te powinny ułatwić bieżącą weryfikację właściwości poszczególnych cech przy sterowaniu niezawo­dnością R(0) elementów. Biorąc to pod uwagę autor proponuje opisanie obszaru Wz za pomocą macierzy [2, 27]

AWz = [a]ij                                                                                                     (101)

gdzie : i –  liczba kolumn macierzy zawierająca cechy,

j – liczba wierszy macierzy zawierająca obszary zdatności podzbiorów

cech Dwk, Wm, Sww, Me.

W oparciu o dotychczasowy stan wiedzy i własne doświadczenia z zakresu omawianego zagadnienia [2] autor przedstawia propozycję opisania obszaru zdatności w odniesieniu szczególnie do elementów stanowiących tzw. „słabe ogniwa” w strukturze niezawodnościowej systemu technicznego.

Podzbiór cech wymiarowo-kształtowych (konstrukcyjnych) Dwk powinien zawierać następujące cechy o właściwościach granicznych:

– wymiary liniowe wielkości i kształtu   ( Bai, Aai ), ( i = 1,…, n ),

– wymiary kątowe wielkości i kształtu    ( Baj, Aaj ), ( j = 1,…, m ),

  • wymiary liniowe charakteryzujące wza­jemne położenie powierzchni elementu

( Bapk, Aapk), ( k = 1,…, K )

  • wymiary kątowe charakteryzujące wzajemne położenie powierzchni elementu

( Bapl, Aapl), ( l = 1,…, L )

cechy (opisowe) charakteryzujące spo­sób łączenia sąsiednich powierzchni (tzw. powierzchnie przejściowe)   ( Codr, Corg ), ( r = 1,…, R ),

  • dodatkowe cechy (opisowe) związane ze specyfiką rozpatrywanego elementu

(Csdv, Csyg ), ( v = 1,…, V ).

Właściwości graniczne tych cech wyznaczają podobszar zdatności elementu Wwk Ì Wz obrazowany za pomocą tolerancji, który może być przedstawiony wektorem:

Wwk = [ Tai, Taj, Tapk, Tapl, TCor, TCsv ]                                                     (83)

lub też macierzą właściwości granicznych cech:

(84)

Drugim ważnym podzbiorem jest podzbiór charakteryzujący właściwości materiału (tworzywa) elementu Wm na który składają się [2]:

– struktura materiału (mikrostruktura) S,

– parametry mechaniczne M,

– cechy uzupełniające X stanowiące parametry fizyczno-chemiczne, nie

uwzględnione w dwóch poprzednich grupach. W szczególności będą to cechy obejmujące:

– rodzaj fazy                                                      CFi, ( i = l,…, n ),

– objętość względną fazy                                  ( CFvd, CFvg ),

– rozmieszczenie faz                                          ( CFRd, CFRg ),

– rozmieszczenie składników faz                      ( CFsd, CFsg ),

– rozmiar ziarna                                                 ( Czd, Czg ),

– rozmieszczenie ziaren                                     ( Czrd, Czrg),

– granice krawędzi ziaren                                  ( Czkd, Czkg )

– teksturę ziaren (strefę ukierunkowania)          ( CTzd, CTzg ),

– teksturę krystaliczną                                        ( CTkd, CTkg ),

– rodzaj defektów struktury                               ( Cdj, ( j = 1,…, m )),

– gęstość defektów struktury                             ( Cdgd, Cdgg ),

– okresowość struktury                                      ( Cfsd, Cfsg ),

– twardość                                                          ( HM(d), HMg ),

– granicę plastyczności                                      ( Re(d), Reg ),

– wytrzymałość na rozciąganie                          ( Rm(d), Rmg ),

– udarność                                                          ( Ud, Ug ),

– moduł Younga                                                  ( Ed, Eg ),

– naprężenie własne (makronaprężenia)            ( sM(d), sMg ),

– wytrzymałość na pełzanie                               ( RzT/t(d), RzT/tg ),

– granicę pełzania                                               ( Rx/T/t(d), Rx/T/tg ),

– cechy uzupełniające                                         ( XMld, XMlg ), ( l = 1,…, L ),

Podobszar zdatności łopatki Wm Ì Wz warunkowany podzbiorem Wm wy­znacza następujący wektor:

Wm = [ TCFi, TCFv, TCFR, TCFs, TCz, TCzr, TCzk, TCTz, TCTk, TCDj, TCdg, TCfs, THM, TRe, TRm, TU, TE, TsM, TRz/T/t, TRx/T/t, TXML ]                                 (85)

lub macierz wartości granicznych cech:

(86)

Z kolei podzbiór cech określających stan i właściwości użytkowe WW elementu obejmuje [2]:

– charakterystykę struktury geometrycznej powierzchni SGww,

– charakterystykę struktury fizyczno-chemicznej stref WW SFww. Zalecane podzbiory cech charakterystyki struktury geometrycznej powierz­chni ujęte są w licznych normach krajowych i zagranicznych, jak np. PN-74/M-04255, PN-87/M-04251 oraz PN-87/M-04256/01 i 02. Propozycję z tego zakresu przedstawiono również w [1, 2]. Biorąc pod uwagę całokształt wymagań niezawodnościowych rozważanych elementów, w ich charakterystyce struktury geometrycznej proponuje się uwzględnienie:

– wysokości falistości powierzchni                            ( Wz(d), Wzg ),

– średniego odstępu falistości                                    ( Sw(d), Swg ),

– największej wysokości falistości                             ( Wmax(d), Wmaxg ),

– średniego arytmetycznego odchylenia profilu         ( Ra(d), Rag ),

– wysokości chropowatości według 10 punktów       ( Rz(d), Rzg ),

– maksymalnej wysokości chropowatości                 ( Rmax(d), Rmaxg ),

– średniego odstępu chropowatości                           ( Sm(d), Smg ),

– średniego odstępu miejscowych wzniesień

profilu chropowatości                                                 ( Sd, Sg ),

– kierunkowości struktury powierzchni                     (ChTd, ChTg ),

– wskaźnika anizotropii                                              (ad, ag ),

– parametru stereometrii powierzchni                        ( ChVd, ChVg ),

– wady struktury geometrycznej powierzchni             ( PAd, PAg ),

Podzbiór ten tworzy podobszar zdatności WSG Ì Www który można przed­stawić wektorem:

 

WSG = [ TWz, TSw, TWmax, TRa, TRz, TRmax, TSm, TS, TChT, Ta, TChV, TPA ]

(87)

lub macierzą właściwości granicznych cech:

(88)

Podzbiór cech charakteryzujących strukturę fizyczno-chemiczną stref WW, zgodnie z PN-87/M-04250 i zaleceniami podanymi w [2], powinien zawierać:

– rodzaj fazy                                                WFi, ( i = 1,…, n ),

– objętość względną fazy                            ( WFvd, WFvg ),

– rozmieszczenie faz                                   ( WFRd, WFRg ),

– rozmieszczenie składników faz                ( WFsd, WFsg ),

– wymiar ziarna                                           ( Wzd, Wzg ),

– rozmieszczenie ziarn                                ( Wzrd, Wzrg ),

– granice krawędzi ziarn                              ( Wzkd, Wzkg ),

– teksturę ziarn (strefę ukierunkowania)     ( WTzd, WTzg ),

– teksturę krystaliczną                                  ( WTkd, WTkg ),

rodzaj defektów struktury                          Wdj, ( j = 1,…, m ),

– gęstość defektów struktury                        ( Wdgd, Wdgg ),

– okresowość struktury                                 ( Wfsd, Wfsg ),

– twardość                                                     ( Hw(d), Hwg ),

– mikrotwardość                                            ( Hmk(d), Hmkg ),

– mezotwardość                                             ( Hmz(d), Hmzg ),

– naprężenia własne                                       ( sw(d), swg ),

– cechy uzupełniające                                    ( Xwl(d), Xwlg ), ( l = 1,…, ł )

Wektor podobszaru zdatności WSF Ì Www przyjmuje postać:

WSF = [TWFi, TWFv, TWFR, TWFs, TWz, TWzr, Twzk, TWTz, TWTk, TWdj, TWdg,  TWfs, THw, THmk, THmz, Tsw, TXwl, ],                                                     (89)

a macierz:

(90)

Do podzbioru właściwości użytkowych ww można zaliczyć:

– wytrzymałość statyczną elementu           ( ss(d), ssg ),

– wytrzymałość zmęczeniową elementu    ( Z­d, Zg ),

– odporność na zużycie korozyjne             ( Z­k(d), Zkg ),

– odporność na zużycie erozyjne               ( Z­e(d), Zeg ),

– żarowytrzymalość                                   ( R’zT/t(d), R’zT/tg ),

– odporność na pękanie                              ( Kcd, Kcg ),

cechy uzupełniające                                ( Cuid, Cuig ), ( i = 1,…, n )

 

Przedstawiony podzbiór tworzy podobszar zdatności Wu Ì Www przedstawio­ny wektorem:

Wu = [ Tss, TZ, TZk, TZe, TRz/T/t, TKc, TCui ]                                                 (91)

(92)

Ważnym, mało docenianym podzbiorem cech jest podzbiór charaktery­zujący właściwości zamontowanego elementu w zespole czy całym systemie. Mogą to być:

– cechy sprawnościowe (wydajnościowe) systemu -ustalone podzbiorami Dwk i Sww elementu (CMSid, CMSig ), ( i = 1,…, n ),

– cechy związane z wyrównoważeniem elementów

(CMWjd, CMWjg ), ( j = 1,…, m ),

– cechy rozrzutu częstotliwości własnej kompletu elementów w systemie

(CMFld CMflg ), ( l = 1,…,L ),

– cechy zapewniające niski poziom głośności ( CMGkd, CMGkg ), ( k = 1,…, K ),

– cechy uzupełniające (CMXod, CMXog ), ( o = l,…, O ).

Zbiór wymienionych cech tworzy podobszar zdatności WMe Ì Wz o postaci:

WMe = [ TCMSi, TCMWj, TCMFl, TCMGk, TCMXo ]                                 (93)

i macierz:

(94)

Jak już wspomniano wcześniej, to każda cecha, oprócz nazwy, powinna zawierać wartość liczbową (tolerancję lub wartości graniczne) lub charakterystykę opisową. Można też przyporządkować Jej dodatkowe oznaczenia identyfikacyj­ne, np. numer podzespołu, zespołu systemu lub numer montażowy. Powinny też być podawane informacje o sposobie wyznaczania wartości liczbowych (wykresy, normatywy, wzory matematyczne) i o rodzaju dokumentacji, gdzie cecha powinna być zapisana.

Analiza cech obszaru Wz (elementów macierzy AWz ) powinna być wspoma­gana opracowywanymi zależnościami pomiędzy warunkami (parametrami), wariantami procesu technologicznego, oddziaływaniami czynników wymusza­jących wj(t) i cechami yij czy nawet podzbiorami zdatności w postaci:

yij = f (Xl); ( l = 1, 2,…, L )                                                                                (95)

gdzie: i – liczba kolumn macierzy ( i = l, 2,…, 21 ),

j – liczba wierszy macierzy ( j = l, 2,…, 6 ),

lub też w postaci:

Wzr = f (Xl); ( r = 1, 2,…, 6 ).                                                                              (96)

Mogą być również badane zależności (jako relacje wewnętrzne) pomiędzy poszczególnymi elementami macierzy AWz:

bez zajścia s = p                                                              (97)

Związki określające relacje (95-96) można opracowywać w formie modeli matematycznych, wzorców struktury materiału rdzenia, charakterystyk pod­stawowych WW, nomogramów, wykresów, instrukcji technologicznych, wzbo­gacając materiał źródłowy do ustalenia obszaru zdatności Wz w zależności od przyjętego poziomu niezawodności R(0) który jest utrzymany w przypadku:

R(0) = P ( yij Î Wz )                                                                                            (98)

Jeżeli wszystkie elementy yij macierzy AWz zawierają się w obszarze Wz to można też przyjąć, że niezawodność R(0) = 1.

W czasie eksploatacji obiektu, na skutek oddziaływania czynników wymu­szających wj(t), ulegają zmianie w sposób losowy cechy yij obszaru zdatności Wz elementu ukształtowane w procesie wytwarzania. Każda cecha jest odpowied­nim funkcjonałem o postaci:

ij(t) = f [ wj(t), yij, t ].                                                                                (99)

Zmianę zaś obszaru zdatności Wz(t) można traktować jako proces stochas­tyczny mogący być przedstawiony relacją:

Wz(t) = f [ wj(t), Wz, t ].                                                                                   (100)

W rozważanym okresie eksploatacji elementu, np. w czasie równym zasobo­wi ustalonemu Zu, kształtowana funkcja niezawodności powinna spełniać warunek:

R(t) ³ R(t)dop.,                                                                                                  (101)

gdzie R(t)dop jest obliczonym i ustalonym poziomem niezawodności elementu. Odpowiada mu również ustalony obszar zdatności Wz(t)dop. i wynikające z tego ograniczenie dla każdej cechy obszaru, tj.

ij(t) ³ y­ij(t)dop.                                                                                                (102)

W związku z tym warunek utrzymania poziomu niezawodności R(t)dop. będzie następujący:

R(t)dop. = P [y­ij(t) Î Wz(t)dop. ].                                                                        (103)

Z przedstawionych relacji wynika, że racjonalne ustalanie cech obszaru zdatności Wz elementów i całych systemów technicznych wymaga istnienia w zakładowym (branżowym) systemie jakości dwóch zintegrowanych ze sobą podsystemów kształtowania niezawodności obiektów, tj. podsystemu konstrukcyjno-eksploatacyjnego i podsystemu technologicznego.

W całej działalności badawczo-konstrukcyjnej podsystemu pierwszego waż­ną rolę odgrywają badania związków określonych relacją (99) usiłujące w coraz większym stopniu uwzględniać rzeczywistą probabilistyczną naturę procesu [1]. W badaniach tych niezawodne są informacje o zmianach stanów technicznych systemów i elementów zachodzących w ich eksploatowaniu, których metody opracowywania podano w [16] i w innych licznych pracach prezentowanych na konferencjach i sympozjach naukowych. Pomimo tego w dalszym ciągu istnieje skąpy przepływ informacji ze sfery eksploatacji. Stąd też wydaje się uzasadnione tworzenie podsystemu łączącego sferę badawczo-projektową i sferę eksploatacyjną.

Podstawowa rola podsystemu technologicznego w ustalaniu obszaru zdat­ności Wz obiektów technicznych to opracowywanie metod i sposobów urzeczy­wistniania wcześniej proponowanych cech Wz, poprzez stymulowanie prac w trzech zasadniczych kierunkach, tj. [1, 2]:

  • opracowywania nowych tworzyw konstrukcyjnych,
  • opracowywania szczegółowych zależności zgodnie z relacjami głównie (95) i (96),
  • prowadzenia całościowej działalności badawczej sterowania niezawod­nością obiektów metodami technologicznymi.

Stąd też podzielona przez wielu autorów opinia, jakoby zadaniem sfery wytwarzania było tylko bierne odtwarzanie na obrabianych elementach zada­nych przez projektantów cech Wz, wydaje się niewłaściwa.

Przedstawiony macierzowy zapis cech obszaru zdatności Wz należy trak­tować jako jedną z prób zwartego i przejrzystego zapisu warunków do ukształtowania niezawodności początkowej elementów i systemów technicz­nych stanowiących próbę uporządkowania dotychczas stosowanego, niespój­nego opisu zbioru cech obszaru Wz.

Ujednolicony zapis obszaru Wz może ściślej zintegrować wszystkie sfery związane z powstawaniem i istnieniem obiektów (zgodnie z pętlą jakości – rys. 7) w zakresie opracowywania racjonalnych metod sterowania ich niezawodnością, z wykorzystaniem techniki komputerowej, budowaniem bazy badawczej i banków doradczo-informacyjnych (systemów ekspertowych) [13].

Dyski twarde, budowa i zasada działania

Wstęp, cel i  zakres pracy

Pierwsze komputery jakie powstały miały służyć do obliczeń matematycznych i nie były o wiele bardziej skomplikowane od dzisiejszych kalkulatorów. Sytuacja ta uległa gwałtownej zmianie dzięki pamięciom masowym. Prawdopodobnie to zadecydowało o tym, że komputery zaczęto używać w innych dziedzinach życia, a nie tylko tak jak to było na początku do celów wojskowych.

Pierwsze pamięci masowe mało przypominały te znane nam w dzisiejszych czasach były to bowiem bardzo wolne i zawodne karty i taśmy perforowane opracowane przez firmę IBM w 1952r.

Trzeba było aż czterech lat aby nastąpił kolejny przełom i tak w 1956r. firma ta stworzyła napęd dyskowy IBM 350 RAMAC (Random Access Method for Accounting and Control). Miał on niewielką pojemność bo zaledwie 5 MB i składał się z 50 24-calowych dysków. Za to jednak umożliwiał szybki dostęp do danych bez konieczności przewijania taśmy tak jak to miało miejsce przedtem. Tym samym IBM 350 był zaczątkiem dzisiejszych pamięci masowych umożliwiając jednocześnie zastosowanie go w różnych dziedzinach życia.

Kolejnym problemem z jakim borykali się naukowcy była możliwość zewnętrznego składowania danych, a nie jak w przypadku IBM 350 który był jedynie rozszerzeniem pamięci operacyjnej. Rozwiązanie problemu nastąpiło w roku 1962.

Od tej pory wymienne dyski dawały już możliwość zewnętrznego składowania danych bez ograniczeń pojemności.

Dzisiaj sięgając tamtych czasów trudno sobie wyobrazić komputer bez stacji dyskietek, wymiennych dysków o dużych pojemnościach.

Na początku najpopularniejszą pamięcią masową był magnetofon kasetowy, zaś dyski wymienne (dyskietki) początkowo 5,25 cala i pojemności 160-180 kB były wielkim rarytasem.

W ten sposób z biegiem czasu stacja dyskietek stała się nieodzownym elementem komputera. W początkowym okresie pojemność 360 kB lub1,2 MB dyskietek pięciocalowych a potem 720 KB i 1,44 MB dyskietek trzyipółcalowych była w zupełności wystarczająca.

Poza tym początkowe parametry ówczesnych komputerów takie jak 1 MB pamięci RAM oraz 5-20 MB dysku twardego i mała moc przetwarzania procesorów nie pozwalały na pracę z większymi ilościami danych. Sytuacja ta jednak musiała ulec zmianie gdyż potrzeby i wymagania użytkowników wciąż rosły, a komputery zaczęto używać do coraz to poważniejszych zadań (np. elektroniczne tworzenie publikacji). W ten oto sposób najpierw używano ich do składania tekstów i tworzenia prostej grafiki, aż do momentu umieszczania na nich już nie czarno-białych, a kolorowych zdjęć. Pliki tworzonych podczas skanowania zdjęć tak gwałtownie wzrosły z chwilą wprowadzenia koloru, że pojemność pamięci dysków miały ogromne znaczenie. Jak wielkie wymagania spoczywają  na producentach pamięci masowych możemy bardzo łatwo zaobserwować po ich nowych produktach, których parametry wciąż są podnoszone, a jakość udoskonalana.

Problem przenoszenia danych istniał od momentu powstania komputerów. Wraz z ich szybkim rozwojem , rozwijały się równie szybko wszystkie dziedziny pokrewne. Także wielkość pojemności pamięci masowych rosła wraz z rosnącym zapotrzebowaniem. Wszelkiego rodzaju placówki naukowe, banki, urzędy i inne instytucje musiały i muszą przechowywać olbrzymie ilości informacji, a każdy kolejny rok przynosi im coraz więcej problemów w tym względzie. Głównymi wadami tradycyjnych sposobów archiwizowania danych (papier, mikrofilm, taśma magnetyczna, itd.) są:

  • długi czas potrzebny do odszukania potrzebnych informacji,
  • niska trwałość nośników i ich wrażliwość na różne „przeciwności losu”
  • oraz wysoki koszt magazynowania danych,

Ogólnie można powiedzieć, że obecnie mamy dwie, uzupełniające się „szkoły” nowoczesnego gromadzenia i redystrybucji danych w formie elektronicznej. Pierwsza z nich – klasyczna opiera się na tym, że treść wszystkich interesujących nas dokumentów zostaje najpierw przetworzona i zapisana w formacie np. plików tekstowych, arkuszy kalkulacyjnych, itd., a następnie jest indeksowana za pomocą specjalnie do tego celu opracowanych narzędzi. Tak przygotowana postać elektroniczna jest następnie składowana na nośniku trwałym. Opisana metoda jest mało przydatna, gdy zarchiwizowany dokument będzie musiał być kiedyś odtworzony w swej pierwotnej formie. Opracowano więc drugą metodę, zgodnie z którą przechowywane są nie treść lecz obrazy dokumentów. Systemy tego typu noszą nazwę imagingu, a do segregowania i odszukiwania określonych informacji służą w nich bazy danych, w których za pomocą słów kluczowych opisuje się zawartość obrazów dokumentów.

Wszystkie te dokumenty, czy to skanowane czy też trzymane wcześniej w formie elektronicznej trzeba gdzieś trzymać na osobnym miejscu aby w razie awarii istniała możliwość ich odtworzenia. Początkowe archiwizowanie odbywało się na dyskietkach. Pierwsze dyskietki, nazywane wówczas dyskami elastycznymi, miały średnicę 8 cali i 128 KB pojemności. Postęp technologiczny i rosnące wymagania użytkowników sprawiły, że średnica dyskietki z czasem zmniejszyła się do 3,5 cala, a jej pojemność wzrosła do 1,44 MB. Dalszy wzrost pojemności okazał się zbyt trudny i zbyt kosztowny – dyskietki 3,5″, 2,88 MB nie przyjęły się. Jednak ten kilkunastokrotny wzrost pojemności dyskietki nie wystarczył – przebiegająca równolegle ewolucja zastosowań komputerów oraz nowe technologie produkcji oprogramowania sprawiły, że zarówno same programy, jak i użytkowane przez nie dane przybrały objętości, wobec których dyskietka zaczęła stawać się nośnikiem coraz mniej wygodnym i coraz mniej użytecznym. Próby stworzenia taniego nośnika wymiennego o większej pojemności trwały już od wielu lat, ale przez stosunkowo długi okres nie przynosiły one żadnych rozwiązań, które zyskałyby trwałą, powszechną popularność, choć niektóre z nich zrobiły krótkotrwałe kariery.

Pierwszym takim rozwiązaniem był Bernoulli disc firmy Iomega – 10 MB danych można było zapisać na 5,25-calowym krążku magnetycznym, zamkniętym w plastykowym pudełku. Mimo dużej, jak na owe czasy, pojemności i stosunkowo niskiej ceny, rozwiązanie nie przyjęło się szerzej, może zresztą dlatego, że powstało jeszcze w czasach, gdy standardem była dyskietka 5,25″ o pojemności 360 KB i nieco później 1,2 MB, a przeciętna wersja instalacyjna dużego programu nie zawierała więcej niż 5 dyskietek.

Głównym celem, przyświecającym podczas pisania tej pracy była chęć przybliżenia historii, budowy i zasady działania pamięci masowych jakimi są dyski twarde.

W rozdziale pierwszym uwzględniono takie aspekty jak historia dysku twardego, jego budowa fizyczna i logiczna, parametry (pojemność, szybkość, jakość, wydajność) oraz  jego organizacja. W kolejnym rozdziale [niniejszej pracy magisterskiej] omówiono zasadę działania dysku twardego, a następnie jego instalację i konfigurację.  Rozdział piąty dotyczy interfejsów komunikacyjnych. Najpierw opisany jest pierwszy interfejs komunikacyjny czyli ST-506/412, a następnie IDE/ATA oraz SCSI. Następny poświęcony jest użytkowaniu i zasadom postępowania z dyskami twardymi, gdzie zawarto takie zagadnienia jak deinstalacja, defragmentacja, skanowanie oraz porządkowanie dysku. Ostatni rozdział siódmy poświęcony jest pamięciom masowym w przyszłości, czyli wszystko o tym czego możemy spodziewać się na rynku w najbliższym czasie, nowe technologie oraz rozwiązania w tej dziedzinie.

Zabezpieczanie firewalla

Firewall nie spełnia swojego zadania jeśli zostawia otwarte okno dla ataków przez nieużywane usługi. Hakerzy mogą zdobyć twierdzę i zmodyfikować ją dla swoich potrzeb.

Ważnym krokiem jest wyłączenie niepotrzebnych usług.. Plik /etc/inetd.conf kontroluje rzecz o nazwie ,,super serwer” – kontroluje uruchamianie usług na żądanie.

Kompletnie wyłączamy: netstat, systat, tftp, bootp oraz finger, kiedy już to zrobimy wysyłamy sygnał HUP do procesu inetd komendą: ” kill -HUP < pid > ” , gdzie < pid > jest numerem procesu inetd. Spowoduje to powtórne przeczytanie przez inetd pliku konfiguracyjnego (inetd.conf) i restart.

W tym miejscu możemy sprawdzić czy jesteśmy w stanie dostać się do portu obsługującego netstat telnet localhost 15 Jeśli otrzymamy wynik z netstata oznacza to, że zrestartowanie inetd nie odbyło się prawidłowo.

Konfiguracja filtrowania IP (IPFWADM)

By zacząć konfigurację filtrowania IP administrator musi włączyć przesyłanie pakietów IP w swoim jądrze i jego system powinien odsyłać wszystko co mu zostanie przesłane. Nasza tablica trasowania powinna być ustawiona i administrator powinien mieć dostęp tak wewnątrz jak do zewnętrznej Sieci. Domyślnie IP Forwarding w jądrze systemu odsyła wszystko. Dlatego nasze skrypty startowe firewalla powinny rozpoczynać swoja pracę od zakazania dostępu dla wszystkich i zerwania wszelkich połączeń dozwolonych w poprzednim uruchomieniu ipfw.

# Ustawianie rozliczania i odsyłania pakietów IP
#  Forwarding
# Domyślnie  wszystkie usługi są zakazane.
ipfwadm -F -p deny
# Zerwij wszystkie połączenia
ipfwadm -F -f
ipfwadm -I -f
ipfwadm -O -f

W tym momencie mamy doskonały firewall, który nie przepuszcza niczego. Bez wątpliwości pewna cześć usług powinna być przesyłana (tego dotyczy następny przykład) [1].

# przesyłanie poczty do naszego MTA
ipfwadm -F -a accept -b -P tcp -S 0.0.0.0/0 1024:65535 -D 192.1.2.10
25

# przesyłanie połączeń pocztowych do innych MTA
ipfwadm -F -a accept -b -P tcp -S 196.1.2.10 25 -D 0.0.0.0/0
1024:65535

# przesyłanie WWW do naszego serwera
/sbin/ipfwadm -F -a accept -b -P tcp -S 0.0.0.0/0 1024:65535 -D
196.1.2.11 80

# przesyłanie WWW do serwerów zewnętrznych
/sbin/ipfwadm -F -a accept -b -P tcp -S 196.1.2.* 80 -D 0.0.0.0/0
1024:65535

# przesyłanie ruchu DNS
/sbin/ipfwadm -F -a accept -b -P udp -S 0.0.0.0/0 53 -D
196.1.2.0/24

Jeśli administrator jest  zainteresowany rozliczaniem ruchu przechodzącego przez jego firewall, może zastosować niżej przedstawiony skrypt, który liczy każdy z pakietów.

# Zerwanie wszystkich połączeń
ipfwadm -A -f
# Rozliczanie
/sbin/ipfwadm -A -f
/sbin/ipfwadm -A out -i -S 196.1.2.0/24 -D 0.0.0.0/0
/sbin/ipfwadm -A out -i -S 0.0.0.0/0 -D 196.1.2.0/24
/sbin/ipfwadm -A in -i -S 196.1.2.0/24 -D 0.0.0.0/0
/sbin/ipfwadm -A in -i -S 0.0.0.0/0 -D 196.1.2.0/24


[1] na podstawie R. Ziegler „Linux. Firewalls“