Znaczenie informacji eksploatacyjnej w fazie projektowania obiektu

Wykorzystanie danych eksploatacyjnych na etapie projektowania jest warunkiem koniecznym prawidłowej realizacji tego procesu. Wśród kryteriów optymalizacji w projektowaniu, powinny być bowiem stosowane, równorzędnie z innymi, kryteria eksploatacyjne. Kryteria te występować mogą w postaci różnego rodzaju wskaźników, których podstawą szacowania jest prognozowanie oczekiwanych wartości parametrów obiektu, w oparciu o pełną informację eksploatacyjną. W wielu pracach jako nadrzędne kryterium eksploatacyjne w projektowaniu, przyjmowana jest niezawodność obiektów złożonych. Przyjęcie tego założenia jest uzasadnione tym, że „… niezawodność jest własnością uwarunkowaną logicznymi powiązaniami między wielkościami fizycznymi ….. całego układu mechanicznego: czynnikami wymuszającymi zewnętrznymi i wewnętrznymi, otoczeniem,  środowiskiem i obciążeniami” [22].

Omówienie szeregu problemów, związanych z zapewnieniem wymaganej niezawodności na etapie projektowania zawieraja m.in. praca [27].Najistotniejszym warunkiem zapewnienia wysokiego poziomu niezawodności obiektu na etapie projektowania jest posiadanie informacji o zachowaniu się podobnych obiektów na etapie eksploatacji [27] .Bardziej szczegółowe omówienie problemu wzajemnych relacji pomiędzy projektowaniem a eksploatacją, przedstawione jest w publikacji [10]. Zaproponowany w [10] zapis graficzny zwrotnych sprzężeń informacyjnych pomiędzy omawianymi procesami przedstawiono na rys 1.3 [17]. Jako bazę przeprowadzonych w [10] rozważań przyjęto metodę projektowania „Lemach 2” [17] z uwagi na jej duży stopień ogólności. Metoda ta stanowi sekwencyjno-iteracyjny układ czynności projektowo-konstrukcyjnych, w którym wyróżnić można 5 etapów zawierających 27 działań oraz 55 kroków roboczych.

Etapy projektowania oznaczono cyframi rzymskimi, zaś spośród kroków roboczych wyodrębniono na rys.3.2. te, które stanowią ogniwa sprzężeń pomiędzy projektowaniem i eksploatacją obiektu. Kroki robocze przedstawione są jako punkty w „układzie współrzędnych”: etap projektowania – funkcja projektowa. Skierowane linie łamane ciągłe obrazują kierunek i zwrot sprzężeń zewnętrznych pomiędzy blokami projektowania i eksploatacji. Linie przerywane przedstawiają sprzężenia „wewnątrzprojektowe”, implikowane przez sprzężenia zewnętrzne. Zaproponowany zapis graficzny daje informację na jakim etapie projektu i w jakim celu (funkcja projektowa), wykorzystywane są informacje eksploatacyjne, a także w których etapach projektowania powstają ustalenia odnośnie eksploatacji obiektu. Należy zwrócić uwagę na fakt, że informacje eksploatacyjne tej samej grupy (np. wskaźniki niezawodności, trwałości) mogą być wykorzystywane kilkakrotnie w celu korygowania projektu na poszczególnych jego etapach.

Podsumowanie pracy magisterskiej

Dzisiaj podsumowanie pracy magisterskiej o zaporach ogniowych. Miłego czytania!

Podstawowa zasada działania wszelkich systemów ochronnych jest: „To co nie jest jawnie dozwolone – jest zakazane”. Firewalle (zapory ogniowe) są instalowane miedzy sieciami w celu wymuszenia kontroli dostępu miedzy nimi. Generalnie rzecz ujmując, firewalle zabezpieczają przed nieautoryzowanym dostępem z zewnątrz do sieci lokalnej. Niektóre nawet mogą całkowicie blokować ruch pakietów z zewnątrz – dopuszczając ewentualnie pakiety poczty elektronicznej – zezwalając jednakże na swobodne komunikowanie się użytkowników sieci ze światem zewnętrznym

Na rynku dostępnych jest wiele produktów sprzedawanych pod nazwa „Firewall”, lecz różnią się one poziomem oferowanych zabezpieczeń i przede wszystkim jakością. Przy zakupie lub budowie systemu zabezpieczeń trzeba wiedzieć przede wszystkim co zamierzamy chronić. Ochrona polega na trudnych wyborach między bezpieczeństwem z jednej strony, a użytecznością i kosztami z drugiej. Bezpieczeństwo jest odwrotnie proporcjonalne do użyteczności i kosztów. Im bezpieczniejszy system, tym jest trudniejszy w obsłudze i więcej w nim ograniczeń. Odpowiednio wzrastają również koszty administracji i konserwacji. Aby skutecznie balansować między bezpieczeństwem a przydatnością, trzeba dokładnie określić przedmiot podlegający ochronie.

Na przykład, jeśli ustawiamy serwer Web Centralnej Agencji Wywiadowczej, który będzie podłączony do sieci wewnętrznej agencji, to bezpieczeństwo jest problemem najwyższej wagi. Konfigurowany przez nas system może być furtką dla osób próbujących zagrozić bezpieczeństwu narodowemu USA. Z drugiej strony zaawansowana ochrona serwera Web małej firmy, sprzedającej pluszowe niedźwiadki może się po prostu nie opłacać. Jedna rzecz jest bezdyskusyjna – obydwa z tych serwerów powinny być chronione  – kwestią drugorzędna w jaki sposób ochrona ma być zaprojektowana. Duże korporacje mogą pozwolić sobie na projektowanie i wdrożenie drogich systemów dla małych firm i instytucji pozostają darmowe systemy typu Linux i oprogramowanie typu freeware i shareware.

Przy wyborze i projektowaniu zapór sieciowych stare przysłowie branżowe nie traci nic z aktualności: „Cena zabezpieczeń nie może przekraczać kosztów związanych z usunięciem szkód, jeśli zagrożenie się urzeczywistni”.

Modelowanie systemów informacji

CEL I ZAKRES PRACY. UZASADNIENIE PODJĘCIA TEMATU

Celem pracy jest przedstawienie metodyki modelowania systemu informacji eksploatacyjnej, dla obiektów reprezentujących specyficzną klasę, urządzeń pracujących w cyklach okresowo-ciągłych, z zamiarem podkreślenia znaczenia funkcjonowania takiego systemu dla zminimalizowania strat ekonomicznych spowodowanych przestojami w produkcji. Modelowanie SIE jest przedstawione na przykładzie pomp wirowych pracujących w cukrowniach. Charakterystyczne dla obiektów tego typu są długie zdeterminowane cykle remontowe oraz gotowość do pracy w sezonie i wymagany resurs użytkowy. Każda przerwa w pracy spowodowana awariami pociąga za sobą duże straty wynikające m.in. z niewykonania określonych zadań produkcyjnych w terminie oraz ze strat surowcowych.

Punktem wyjścia do rozważań w niniejszej pracy jest rola informacji eksploatacyjnej na etapach projektowania, wytwarzania i eksploatacji. Pokazana jest konieczność istnienia sprzężeń informacyjnych dla prawidłowości przebiegu tych procesów, a także rola informacji eksploatacyjnej dla kosztów eksploatacyjnych.

W dalszej części omówione są teoretyczne podstawy modelowania SIE, przedstawiona jest struktura eksploatyki jako nauki pozwalającej sformalizować rzeczywistość eksploatacyjną i opisać ją matematycznie posługując się w tym celu „wypróbowaną metodą nauk abstrakcyjnych”, metodą modelowania. Dalsze rozważania dotyczą podejścia systemowego do modelowania SIE a wynikiem ich jest przyjęcie jako zasadniczego etapu modelowania, dokładnego zamodelowania badanego fragmentu rzeczywistości eksploatacyjnej poprzez stworzenie dwóch modeli: badawczego (model poznawczy, model ocenowy, model decyzyjny) i pragmatycznego.

Część dotycząca matematycznego modelowania decyzyjnego przedstawia sposób budowania matematycznego modelu decyzyjnego poprzez opis identyfikacyjny i formalny rzeczywistości eksploatacyjnej aż do stworzenia opisu w języku matematyki poszczególnych elementów modelu.

Następnie przedstawiona jest procedura modelowania SIE dla pomp wirowych, pracujących w cukrowniach, stanowiących przykład obiektów pracujących w cyklach okresowo- ciągłych. Opisany jest proces identyfikacji poznawczej przedmiotu badań i wskaźniki wykorzystywane na etapie modelowania ocenowego, sformułowane jest kryterium decyzyjne i przedstawiony jest model decyzyjny sterowania eksploatacją.

W rozdziale siódmym przedstawione są możliwości wykorzystania nowoczesnych metod reprezentacji wiedzy eksploatacyjnej poprzez zastosowanie systemów ekspertowych w eksploatacji maszyn.

W zakończeniu pracy sformułowano wnioski, wynikające z przedstawionych rozważań i opracowanego modelu systemu informacji eksploatacyjnej dla obiektów pracujących w cyklach okresowo-ciągłych.

Uzasadnienie podjęcia tematu stanowi rozdział 3 niniejszej pracy, w którym omówiono znaczenie systemów informacji eksploatacyjnej (SIE) dla prawidłowej realizacji wszystkich etapów „życia” obiektu technicznego.

System racjonalnego oddziaływania na niezawodność obiektu w fazie jego projektowania

Jak już wspominano w rozdz. 2. do działań wchodzących w skład systemu racjonalnego oddziaływania na niezawodność obiektu w fazie jego projektowania należy zaliczyć:

  1. budowę niezawodnościowego modelu obiektu
  2. budowanie niezawodności głównie teoretyczne przeprowadzone na zbudowanym modelu
  3. typowanie najkorzystniejszych rodzajów ulepszeń

Zasady i sposoby realizacji działań a) i b) omówiono szczegółowo w rozdziałach 3, 4 i 5 niniejszej pracy.

Trzecim z podstawowych działań proponowanego systemu ra­cjonalnego oddziaływania na niezawodność (i bezpieczeństwo) obiektu jest typowanie najkorzystniejszych rodzajów ulepszeń. Podstawą do takich działań konstruktora są wyniki badań nie­zawodności (i bezpieczeństwa), na przykład w postaci wykresów zależności wybranego wskaźnika niezawodności od różnych czyn­ników projektowych, technologicznych i eksploatacyjnych. Ulepszenia polegają głównie na odpowiednich zmianach wartości tych czynników.

W ogólnym przypadku wybór czynnika, którego wartość powin­na ulec zmianie, nie powinien być jednak oparty na kryterium niezawodności, gdyż zmiana ta może wywołać nie tylko podwyż­szenie poziomu niezawodności, lecz również jednoczesne pogor­szenie innych cech obiektu, np. bezpieczeństwa, ciężaru, kosz­tu wykonania, kosztu eksploatacji itd. O wyborze takim powinno więc decydować globalne kryterium oceny obiektu, uwzględniają­ce najważniejsze jego cechy. Jest nią tzw. funkcja do­broci, uwzględniająca różne istotne cechy obiektu, różne ich ważności, a także losową zależność niektórych cech od czasu. Dla czasu  t  wynosi ona:

(104)

gdzie: Xk(t) jest k-tą cechą świadczącą o dobroci obiektu (ciężar, koszt wykonania  Cw,  straty wywołane zawodnością C(t),  inne koszty eksploatacyjne  C (t),  zagrożenie [1-B(t)] itd.;  wk(t)  jest wagą k-tej cechy;  xk*(t)  jest górną warto­ścią graniczną k-tej cechy  (większą od zera), której przekro­czenie jest niedopuszczalne lub niepożądane;  l  jest liczbą. istotnych cech obiektu;  J(t)  jest wartością zadania wykony­wanego przy użyciu obiektu.

Niektóre sposoby ustalania wartości xk*  oraz  wk  są przedstawione w pracy [25]. Ustalanie wartości xk*  polega na odpowiednim wyborze tych wartości z zakresu występowania wartości cech  Xk  obiektów podobnych (do rozpatrywanego) eks­ploatowanych w podobnych warunkach w jednakowym czasie. Na podstawie umowy oraz pewnych ograniczeń technicznych i nie­technicznych za wartość xk* przyjmuje się największą obserwo­waną wartość cechy  Xk,  jej wartość średnią lub inną, w za­leżności między innymi od prowadzonej polityki w zakresie po­stępu technicznego.

Najważniejszą czynnością przy ustalaniu wartości współczyn­ników ważności  wk  (wg sposobu podanego w [25]) jest upo­rządkowanie przez zespół ekspertów zbioru obiektów podobnych (do rozpatrywanego) eksploatowanych w podobnych warunkach w jednakowym czasie według na przykład rosnącej dobroci oraz przypisanie im odpowiednich wartości funkcji dobroci. Jest to podstawą do ułożenia odpowiedniego układu równań (104), z któ­rego wyznacza się następnie wartości wk.  Taka metoda polega­jąca na ustaleniu porządku preferencji jest stosowana między innymi w teorii użyteczności.

W wymienionych pracach przyjmuje się za funkcję kryterium, służącą do oceny dobroci, albo wartość oczekiwaną  EY funkcji dobroci, albo ryzyko a przekroczenia przez tę funkcję pewnej wartości granicznej (lub przyjętego poziomu odniesienia) y*. Jeśli więc funkcją kryterium, służącą do oceny jest na przy­kład EY (dla określonego czasu eksploatacji), to zmiany war­tości czynnika projektowego, technologicznego lub eksploa­tacyjnego w celu poprawy niezawodności mają  sens, gdy

D(EY) = (EY)2 – (EY)1 < 0                                                                          (105)

gdzie indeks „1” oznacza obiekt przed zmianą, a indeks „2” oznacza obiekt po zmianie. Warunkiem decydującym o wyborze ro­dzaju czynnika do zmiany w pierwszej kolejności jest w tym przypadku warunek

(106)

gdzie

(107)

Indeks „2” oznacza obiekt po zmianach wartości czynnika g, przy czym g należy do zbioru  G  rozpatrywanych czynników, dla których spełnione są warunki (105).

Metoda kolejnych zmian wartości wspomnianych czynników konstrukcyjnych, technologicznych i eksploatacyjnych (np. zgodnie z warunkiem (106) w kolejności wzrastania D(EY) może być metodą optymalizacji rozwiązania technicznego obiektu o przyjętym schemacie projektowym. Za jej pomocą możliwe jest na przykład wyznaczenie optymalnego rozkładu poziomów nieza­wodności na poszczególne PK obiektu. W tym celu zmiany pozio­mów niezawodności poszczególnych PK przez zmiany wartości czynników ze zbioru G należy przeprowadzać dotąd, aż speł­nione zostaną w przybliżeniu warunki

(108)

tzn. dotąd, aż zmiany wybranego czynnika nie przestaną popra­wiać wartości oczekiwanej funkcji dobroci. To zagadnienie syn­tezy niezawodnościowej obiektu jest przedstawiane nieco ob­szerniej w pracach [25].

Wybór najkorzystniejszego rodzaju ulepszenia, odbywający się przy wykorzystaniu warunków (105) i (106), wymaga znajo­mości matematycznej postaci kryterium, np. wartości oczekiwa­nej funkcji dobroci (104). W wielu przypadkach o dobroci obiektu decydują tylko względy ekonomiczne, a wartość wykony­wanego zadania  J(t)  nie zmienia się przy zmianie wspomnia­nych czynników projektowych, technologicznych i eksploatacyjnych. Łatwo uzasadnić , że wówczas funkcja dobroci w postaci (104) może być zastąpiona funkcją

Y(t) = Cw + Ce(t) + C(t).                                                                                (109)

Jeśli o dobroci obiektu decydują nie tylko względy ekono­miczne, to należy korzystać z postaci (104) funkcji dobroci. Jednakże może być to niewygodne z powodu trudności w określe­niu współczynników ważności  wk(t).  Proponuje się, aby wów­czas przy wyborze rodzaju ulepszenia korzystać z funkcji

(110)

gdzie bezpieczeństwo Bb(t). Jeśli zamierzone ulepszenia obiektu nie zmieniają wartości wielkości  Bb(t),  to w przypadku wspomnianych trud­ności proponuje się korzystać zamiast z postaci (110) funkcji dobroci – z postaci

(111)

lub z postaci (109).

Algorytm tych podstawowych działań proponowanego systemu jest  przedstawiony poglądowo na rys. 8. Na rysunku tym zazna­czone są również ważniejsze sprzężenia w przepływie informacji między tym systemem i różnymi etapami fazy projektowania oraz fazami wytwarzania i eksploatacji. Między innymi wskazane są te etapy fazy projektowania, w których możliwe są racjonalne działania na rzecz niezawodności i bezpieczeństwa obiektu za pomocą systemu przedstawionego w niniejszym opracowaniu.

Wpływanie na poziom niezawodności projektowanego obiektu możliwe jest już we wcześniejszym etapie fazy projektowania, mianowicie w etapie tworzenia i wyboru projektu koncepcyjnego, ale jedynie w sposób jakościowy. Oddziaływanie na poziom nie­zawodności w tym etapie może być realizowane przez wybór ta­kiej koncepcji, w której przewiduje się:

  • małą liczbę elementów, a właściwie – fragmentów obiektu szczególnie narażonych na niesprawności;
  • małą liczbę takich fragmentów obiektu, w których szyb­kość przebiegu zjawisk fizycznych prowadzących do niesprawno­ści może być duża;
  • małą liczbę takich fragmentów obiektu, których niespraw­ności stanowią duże zagrożenie dla ludzi i dla obiektu;
  • racjonalne zastosowanie zabezpieczeń, ograniczników i wskaźników;
  • łatwą wymianę elementów (profilaktyczną i poawaryjną);
  • łatwy sposób diagnozowania;
  • modułową konstrukcję niektórych fragmentów obiektu, a nawet całego obiektu;
  • małą wrażliwość na błędy wykonania i na błędy eksploata­cji itd.

Jak już wspomniano w rozdz. 4, racjonalne oddziaływanie na niezawodność i bezpieczeństwo obiektu, oddziaływanie z za­mierzonym i wymiernym efektem, możliwe jest jednak dopiero po wykonaniu projektu wstępnego i zbudowaniu na podstawie tego projektu niezawodnościowego modelu obiektu.

Następnym etapem fazy projektowania, w którym można od­działywać na tworzony obiekt za pomocą proponowanego systemu jest etap tworzenia projektu technicznego (rys.8). Bywa tak, że ten etap wymusza pewne zmiany w rozwiązaniu projektowym obiektu. Jeśli zmiany te mogą być istotne z punktu widzenia niezawodności, to konieczne jest uwzględnienie ich w modelu niezawodnościowym i zbadanie ich wpływu na poziom niezawodno­ści projektowanego obiektu.

Zaproponowany system może też być wykorzystany do oddzia­ływania na niezawodność (i bezpieczeństwo) obiektu w pozosta­łych etapach fazy projektowania oraz w fazach wytwarzania  i eksploatacji (rys.8). W tym przypadku wyniki teoretycznych badań niezawodności mogą służyć do potwierdzania i uzupełnia­nia wyników eksperymentalnych badań prototypów i serii infor­macyjnej oraz wyników eksploatacyjnych badań produkowanych obiektów.

Rys.8. Racjonalne oddziaływanie  na niezawodność obiektu w fazie jego projektowania

Celem prowadzenia takich badań jest doskonalenie obiektu w kolejnych etapach i fazach jego tworzenia i istnie­nia przez: wykrywanie słabych ogniw, wyjaśnianie przyczyn nie­sprawności, wskazywanie najbardziej efektywnych sposobów do­skonalenia rozwiązania konstrukcyjnego obiektu itd.

Reprezentacja wiedzy inferencyjnej

[podrozdział pracy magisterskiej]

Wiedza inferencyjna w systemach ekspertowych jest związana z regułami wnioskowania. Ten rodzaj wiedzy eksploatacyjnej jest potrzebny przy roz­wiązywaniu takich problemów, jak np. diagnostyka objawowa i zadaniowa, określanie zakresu naprawy, planowanie użytkowania i obsługiwania. A więc wszędzie tam, gdzie należy podejmować decyzje.

Najbardziej rozpowszechnionym systemem reprezentacji wiedzy inferencyj­nej są bazy reguł. Istnieją programy narzędziowe, tzw. ES-Shell (Ekspert-System Shell), tworzące wyspecjalizowane środowisko programowe służące do projektowania systemów ekspertowych.

Chociaż systemy ekspertowe oparte o reguły wymagają silnego zawężenia dziedziny, to w wielu sytuacjach przedstawienie problemu w jednej bazie wiedzy prowadzi do znacznej jej nadmiarowości oraz możliwości konfliktu reguł. Dlatego też, już na etapie konceptualizacji należy przeanalizować możliwość dekompozycji problemu na względnie autonomiczne podproblemy o zróżnicowanym stopniu ogólności, którym odpowiadałyby odrębne bazy wiedzy. Modularność bazy wiedzy stwarza możliwość zanurzania modułów niższego rzędu zawierających wiedzę bardziej szczegółową w modułach wyższego rzędu zawierających wiedzę ogólną. Taka struktura bazy wiedzy jest łatwa do zaimplementowania, ponieważ programy ES-Shell mają możliwość wykonywania komend inicjujących inne bazy. Powstaje w ten sposób możliwość wielotorowości i wieloetapowości procesu konsultacji (wypracowywania porady). Każdy etap procesu konsultacji obsługiwany jest przez odrębny, specyficzny moduł bazy wiedzy wybierany w zależności od danych dostarczanych przez użytkownika i wcześniejszego przebiegu konsultacji.

Z metodologicznego punktu widzenia atrakcyjnym sposobem podejmowania decyzji w przemyśle jest oparcie ich na systemach ekspertowych. Takie systemy pozwalają na doskonalenie wnioskowania w oparciu o tworzone bazy wiedzy, wykorzystujące wiedzę heurystyczną (operatorską), wiedzę proceduralną (modele matematyczne, algorytmy identyfikacji) oraz wiedzę symulacyjną. Systemy ekspertowe maja swoje zastosowanie najczęściej w dziedzinach, które są słabo sformalizowane, tzn. do których trudno jest przypisać teorie matematyczne i zastosować ścisły algorytm działania. Przeciwieństwem są dziedziny, dla których istnieją algorytmy numeryczne. W takim przypadku stosowanie systemów ekspertowych nie jest celowe, gdyż programy algorytmiczne są na ogół znacznie szybsze i doprowadzają do optymalnego rozwiązania, a systemy ekspertowe prowadzą najczęściej do rozwiązań nie koniecznie optymalnych, lecz akceptowalnych przez użytkownika systemu. Zadania systemu ekspertowego w zakresie eksploatacji wynikają z potrzeb użytkownika i można je podzielić na następujące grupy: uczenie, informowanie, doradzanie.

Uczenie jest ukierunkowanym przekazywaniem informacji, być może ze wstępnym testowaniem stopnia ich rozumienia. Wymagana jest tu możliwość wyboru przez użytkownika różnych ścieżek i tempa uczenia w zależności od jego indywidualnych predyspozycji i posiadanej wiedzy. Informowanie jest genero­waniem odpowiedzi na predefiniowane grupy zapytań. Doradzanie jest proce­sem obejmującym wspomaganie przy precyzowaniu problemu oraz generowanie i testowanie hipotez wyjaśniających i operacyjnych (działaniowych). Na przy­kład, przy wystąpieniu zaburzeń funkcjonowania maszyny, wspomaganie obejmuje: pozyskanie od użytkownika precyzyjnej specyfikacji problemu wraz z kontekstem, wygenerowanie diagnozy, tj. postawienie hipotez odnośnie do przyczyn, zaproponowanie określonych działań regulacyjnych lub napraw­czych, ewentualnie dalszych działań sprawdzających.

Powstania programu Joomla!

praca magisterska z 2008 roku

W latach dziewięćdziesiątych. ubiegłego wieku firma Sun Microsystem uważała, że „sieć to komputer”. W tym samym czasie Microsoft uprawiał taką politykę, by system Windows znalazł się na dysku każdego komputera. Filozofię, którą można scharakteryzować jako „moje”.[1]

Motywacją powstania tych filozofii były względy ekonomiczne – Microsoft sprzedawał oprogramowanie dla komputerów z myślą o indywidualnych klientach, firma Sun z kolei sprzedawała sprzęt i programy dla przedsiębiorstw.

Internet powstał w latach 60. ubiegłego wieku, lecz dopiero po 30 latach zaczął się rozprzestrzeniać w szalonym tempie. Rozwój Internetu wzrastał dzięki językowi HTML (ang. HyperText Markup Language), w którym pisało się strony internetowe. Osoba, która nie posiadała adresu e-mail stawała się nieosiągalna, a firma bez strony WWW okazywała się nie tylko przestarzała, ale traciła także szacunek w oczach klientów. Nowi obywatele sieci pochodzili za świata, w którym rządziły dwie filozofie – „moje” i „nasze”. Ci pierwsi kupowali edytory HTML, by móc tworzyć strony

WWW, ci drudzy pisali kod własnoręcznie w prostych edytorach tekstu. Zaczęły powstawać agencje internetowe, w których można było zamówić strony internetowe. Wszystkie te grupy, które tworzyły strony internetowe, napotykały ten sam problem – strony napisane w HTML były statyczne, a zmiana zawartości strony wymagały poprawek na dysku twardym, wgrywania strony na serwer. Było to rozwiązanie niewygodne i nieekonomiczne oraz bardzo ograniczało tworzenie zaawansowanych projektów. Zaczęto tworzyć programy mające na celu automatyzację tych procesów. Takie strony zawierały interaktywne elementy w stylu licznika odwiedzin. Zaczęto tworzyć aplety Java, które były używane do obsługi interakcji aplikacji internetowych niemożliwych do osiągnięcia za pomocą HTML-a. Takie rozwiązanie pozwalało tworzyć bardziej zaawansowane projekty, jak na przykład internetowa rezerwacja biletów lotniczych. Rezultatem starań był rynek, na którym dochodziło do prezentacji coraz to nowszych wersji przeglądarek internetowych, co świadczyło o ogromnym potencjale tkwiącym w internetowym rynku.

Kolejnym przełomem było stworzenie nowego języka skryptowego PHP przez duńsko-grenlandzkiego informatyka Rasmusa Lerdorfa. Ten ambitny programista przyjął sobie za cel stworzenie interaktywnych elementów na swojej stronie domowej i w ten oto sposób powstał nowy język programowania. Od samego początku język ten był zintegrowany z bazą danych MySQL, był wspierany przez serwer sieciowy Apache, który zapewniał odpowiednią infrastrukturę do prawidłowego działania. W niedługim czasie zestaw Linux, Apache, MySQL oraz PHP stały się synonimem interaktywnej, opartej na bazach danych zawartości internetowej, która była wyświetlana za pomocą przeglądarki internetowej.

Początki były trudne, a nowa technologia zrozumiała dla nielicznych. Jednak bardzo szybko kod źródłowy języka PHP oraz innych aplikacji został ulepszony, ponieważ korzystało z niego wielu użytkowników i twórców. Powstawały nowe standardy oprogramowania służące do konkretnych celów, dla przykładu – phpBB to darmowa aplikacja umożliwiająca stworzenie forum dyskusyjnego. Dzięki prostej instalacji, obsłudze i ogromnym możliwością phpBB jest obecnie jednym z najpopularniejszych skryptów tego typu na świecie. phpMyAdmin to napisane w języku PHP narzędzie służące do łatwego zarządzania bazą danych MySQL.

Otwartość projektu zadecydowała o jego sukcesie. Statyczne strony HTML są uważane za przeżytek, wszystko musi być dynamiczne! Rozpoczęły się poszukiwania profesjonalnych aplikacji PHP o następujących cechach[2]:

  • prosty proces instalacji,
  • modyfikowalność kodu źródłowego,
  • bezpieczeństwo kodu źródłowego,
  • środowisko przyjazne dla użytkowników,
  • prostota w rozszerzaniu możliwości.

Wszystkie te cechy posiadał system Mambo opracowany w 2001 roku przez australijską firmę Miro [3]. System ten w celu przeprowadzenia testów został udostępniony w formie otwartego oprogramowania (ang. open source), co miało znaczący wpływ na jego dalszy rozwój. W 2002 roku produkt został podzielony na wersję komercyjną i ogólnodostępną. Wersja komercyjna nosiła nazwę Mambo CMS, a wersja ogólnodostępna Mambo Open Source (MOS). Dzięki temu projekt nadal mógł się rozwijać, a pojawienie się wersji komercyjnej gwarantowało zwiększony poziom bezpieczeństwa używania systemu oraz gwarancję firmy Miro na rozwijanie się danego produktu. Wersja darmowa miała całą rzeszę użytkowników – programistów, którzy bezustannie wprowadzali poprawki. Ponadto duże przedsiębiorstwa mogły budować na podstawie Mambo swoje własne rozwiązania.

W sierpniu 2005 roku firma Miro zakłada fundację dla projektu Mambo, która wyklucza zespół tworzący oprogramowanie z działalności korporacji. Rozpoczęły się zaciekłe dyskusje na forach społeczności na temat tego posunięcia. Powodem konfliktu była zmiana w licencji Mambo, która wprowadziła kilka istotnych ograniczeń do systemu. Fundacja z dnia na dzień zaczęła tracić zespół twórców oraz olbrzymią, międzynarodową społeczność składającą się z setek tysięcy wściekłych użytkowników. Ciągle trwał rozwój obydwu projektów, a 26 sierpnia Mambo Fundation wypuszcza kolejną wersję Mambo 4.5.3, lecz nie zostaje ona pozytywnie przyjęta na świecie.

Zespół twórców potrzebował nowej nazwy dla swego dzieła. Pierwszego września 2005 roku ogłoszono nową nazwę – Joomla!. Tym razem jednak zespół zapewnił sobie prawa do używania nazwy, a także dał społeczności możliwość zmiany istniejących serwisów stworzonych w Mambo na nową wersję. Praktycznie od razu na nowym forum zarejestrowało się 8 tysięcy użytkowników. Już w niespełna w miesiąc od pierwszego wydania, w październiku, podczas Linux & Open Source Awards w Londynie Joomla! wygrał w kategorii: „Najlepszy projekt Linux/Open Source”.

[1] Graf H., „Joomla! System zarządzania treścią.”, Helion, Gliwice 2007

[2] Linderman M., Fried J., “Przyjazne witryny WWW”, Helion, Gliwice 2005

[3] Graf H., „Joomla! System zarządzania treścią.”, Helion, Gliwice 2007

Systemowe filtrowanie TCP/IP

Aby wykorzystać systemowe rozwiązania ochronne TCP/IP, należy uruchomić panel sterowania i dwukrotnie kliknąć na ikonie Network, celem otwarcia odpowiedniego okna. Następnie kliknąć na etykiecie Protocols i wybrać z listy zainstalowanych protokołów pozycję TCP/IP. W oknie Microsoft TCP/IP Properties wybrać kartę IP Adressed, a następnie wcisnąć znajdujący się na niej przycisk Advanced, co spowoduje otwarcie się okna Advanced IP Adressing. Zaznaczyć pole wyboru Enable Security, znajdujące się w górnej części okna dialogowego, a następnie wcisnąć przycisk Configure. Wyświetli się okno TCP/IP Security To nowe narzędzie można śmiało określić mianem „zapory sieciowej dla ubogich”. Umożliwia relatywnie obszerne filtrowanie wywołań portów i protokołów, co skutecznie utrudnia próby włamanie się do sieci.

Konfigurowanie ochrony TCP/IP wybranego komputera, należy zacząć od wyboru właściwego adaptera sieciowego. Jeśli komputer jest wyposażony w więcej niż jedną kartę sieciową, to pomyłka może spowodować zablokowanie dostępu dla użytkowników z domen upoważnionych. Dla każdego protokołu możemy wybrać jedną z dwóch podstawowych opcji: Permit All lub Permit Only (zezwolenie dla wszystkich lub dla wybranych) Permit All – umożliwia komunikację za pośrednictwem określonego protokołu poprzez wszystkie porty serwera. Permit Only – umożliwia wybór portów, które będą akceptowały połączenie i przesyłały pakiety do serwera.

Wyłączenie niepotrzebnych portów jest silnym i ważnym sposobem zabezpieczania sieci. Po pierwsze, uniemożliwia hakerom zdobywanie informacji o systemie za pośrednictwem niektórych usług (przypomnijmy sobie „życzliwość” Telnetu). Po drugie, zapobiega wykorzystaniu zbędnych portów do ataku o nazwie SYN-Flood (zalanie potokiem pytań SYN), należącego do grupy „odmowa-usługi” (denial-of-service).

Agresja polega na przesłaniu do wybranego komputera, wywołania sieciowego o nazwie SYN, ze zmyślonym zwrotnym adresem IP, (technika znana jako oszustwo IP). Haker przesyła możliwie najwięcej wezwań, próbując zablokować maksymalną ilość zasobów atakowanej maszyny. Ta odbiera żądanie, wyznacza zasoby do obsługi nowego połączenia i odwzajemnia próbę kontaktu wezwaniem SYN-ACK.

Ponieważ sygnał SYN-ACK jest wysyłany pod nie istniejący adres, więc pozostaje bez odpowiedzi. Zaatakowany komputer kontynuuje próby odzyskania łączności. Microsoft Windows NT (zarówno 3.5, jak i 4.0) ponawia wezwanie SYN_ACK pięć razy (przy oryginalnych ustawieniach systemu). Okres oczekiwania na odpowiedź po pierwszej retransmisji sygnału wynosi 3 sekundy, po każdej kolejnej jest podwajany, zatem po piątej wynosi 48

sekund. Jeśli maszyna nie otrzyma odpowiedzi, to czeka kolejne 96 sekund, zanim zwolni zasoby czekające na transmisję. łączny czas blokowania zasobów wynosi 189 sekund. Do diagnozy ataku SYN-Flood można wykorzystać informacje o statusie połączeń. Wpisując w linii komend polecenie netstat -n -p -tcp, otrzymamy listę wszystkich trwających sesji komunikacyjnych swojego komputera. Jeśli wiele z nich jest w stanie SYN_RECEIVED, można przypuszczać, że staliśmy się obiektem agresji. Z dwóch wiadomości, dobra polega na tym, że haker stosujący ten typ ataku nie ma dostępu do systemu. Zła informacja, to ograniczona liczba połączeń, która mogą pozostawać w stanie SYN_RECEIVED. Jeśli limit zaatakowanego portu komputera jest wykorzystany, zazwyczaj wszystkie następne wezwania są ignorowane do czasu zwolnienia alokowanych zasobów.

Aby jak najlepiej chronić swój system, należy pozostawić aktywność jedynie tych portów, które są niezbędne do działania potrzebnych nam usług i aplikacji. Zazwyczaj powinniśmy wyłączyć wszystkie porty UDP o numerach mniejszych od 900, z wyjątkiem specyficznych, a koniecznych dla nas usług (na przykład FTP). W szczególności protokołu UPD nie powinny obsługiwać porty echo (7) oraz chargen (19), które są ulubionym celem ataku SYN-Flood.

Innym powszechnie znanym zagrożeniem jest działająca w systemie Windows komenda nbstat. Polecenie ujawnia ważne dane o systemie, takie jak nazwa domeny, czy nazwę serwera NetBIOS. Jeszcze gorzej, że owe informacje są udostępniane również użytkownikom korzystającym z anonimowego konta IIS (o ile oczywiście usługa IIS jest dostępna). Na szczęście, stosunkowo łatwo można odseparować świat zewnętrzny od usługi Nbstat. Wystarczy odłączyć porty 137 i 138 UDP oraz port 139 TCP na routerze lub zaporze sieciowej. Komenda jest wtedy całkowicie operatywna w sieci chronionej i niedostępna z zewnątrz. Jeśli komuś jeszcze mało problemów, to informujemy o kolejnej luce, tym razem w realizowanej przez Windows usłudze RPC. Użytkownik wykorzystując

Telnet poprzez port 135 może wprowadzić 10 losowych znaków i rozłączyć się, co w stu procentach zawiesi działanie CPU. Przeładowanie systemu rozwiązuje problem, ale jest to dość kosztowny sposób. Znane jest również zastosowanie tego samego chwytu do ogłupienia usług korzystających z dwu innych portów, mianowicie 53 oraz 1031.

Jeśli serwer DNS jest uruchomiony z portu 53, atak zawiesza go i konieczne jest ponowne uruchomienie systemu. Podobnie reaguje IIS napadnięty z portu 1031.

Zasady kontroli przepływu dla ruchu ABR

ATM Forum zdefiniował ogólne zasady dla ruchu typu ABR.

Komórki sterujące RM dla ruchu ABR powinny być generowane z CLP=0, jednak w niektórych sytuacjach, przedstawionych poniżej, urządzenie może wygenerować komórki RM z CLP=1. Wszystkie inne komórki wysyłane są z CLP=0. Komórki z CLP=0 nazywane są in-rate RM-cell, a z CLP=1 out-of-rate RM-cell.

Jednym z zastosowań komórek RM typu out-of-rate jest udostępnienie możliwości zwiększenia prędkości dla połączenia z ACR=0. Źródło może użyć komórek out-of-rate, aby próbkować stan sieci i  ewentualnie zwiększyć prędkość.

Zasady dla urządzenia nadawczego (źródła):

  1. Wartość ACR nie powinna nigdy przekroczyć PCR, ani też nie powinna być mniejsza niż MCR. Źródło nie może generować komórek in-rate przekraczając aktualną prędkość ACR. Źródło może zawsze wysyłać komórki in-rate z prędkością równą lub mniejszą niż ACR.
  2. Przed wysłaniem pierwszych komórek, po zestawieniu połączenia, źródło musi ustawić parametr ACR=ICR. Pierwszą wygenerowaną komórką musi być komórka sterująca RM typu forward
  3. Po wysłaniu pierwszej komórki (in-rate forward RM), kolejne komórki powinny być wysyłane w następującej kolejności:
  4. Następną komórką in-rate będzie forward RM, gdy:
    przynajmniej Mrm komórek in-rate zastało wysłanych i upłynął czas Trm
    lub Nrm-1 komórek in-rate zostało wysłanych.
  5. Następną komórką in-rate będzie backward RM, jeżeli warunek 3.A nie został spełniony, komórka backward RM czeka na wysłanie, jak również:
    nie została wysłana komórka backward RM od czasu wysłania ostatniej komórki forward RM.
    lub nie ma żadnych komórek z danymi do wysłania
  6. Następną komórką in-rate będzie komórka z danymi, jeżeli oba warunki 3.A i 3.B nie są spełnione, a dane czekają na wysłanie.
  7. Komórki spełniające założenia 1, 2, 3 powinny mieć ustawiony bit CLP=0
  8. Przed wysłaniem komórki forward in-rate RM, jeżeli ACR>ICR i czas, który upłynął od wysłania ostatniej komórki forward in-rate RM jest większy niż ADTF, ACR powinna być zmniejszona do ICR.
  9. Przed wysłaniem komórki forward in-rate RM i po zastosowaniu pkt. 5, jeżeli przynajmniej CRM komórek forward in-rate RM zostało wysłanych od momentu otrzymania komórki backward in-rate RM z ustawionym bitem BN=0, wartość ACR powinna być zredukowana przynajmniej do ACR*CDF, chyba że wartość ta byłaby mniejsza od MCR, wówczas ACR=MCR.
  10. Po zastosowaniu zasady 5 i 6, wartość ACR powinna być umieszczona w polu CCR wychodzącej komórki forward RM. Następne komórki in-rate powinny być wysyłane z nową ustaloną prędkością.
  11. Kiedy źródło otrzyma komórkę backward RM z ustawionym parametrem CI=1, to wartość ACR powinna być zredukowana przynajmniej do ACR*RDF, chyba że wartość ta byłaby mniejsza od MCR, wówczas ACR=MCR. Jeżeli backward RM ma ustawione CI=0 i NI=0, to ACR może być zwiększone o wartość nie większą niż RIF*PCR, ale ACR nie może przekroczyć PCR. Jeżeli źródło otrzyma backward RM z NI=1 nie powinno zwiększać wartości ACR.
  12. Po otrzymaniu backward RM i obliczeniu wartości ACR wg pkt. 8, źródło ustawia wartość ACR jako minimum z wartości ER i wartości ACR wg pkt. 8, ale nie mniejszą niż MCR.
  13. Źródło powinno ustawiać wszystkie wartości komórki RM zgodnie z Tabela 2.
  14. Komórki forward Rm mogą być wysłane jako out-of-rate. (tzn. z inną prędkością niż ACR, CLP=1) z prędkością nie większą niż TCR.
  15. Źródło musi wyzerować EFCI dla wszystkich transmitowanych komórek.

Zasady dla urządzenia odbiorczego:

  1. Po otrzymaniu komórki, wartość EFCI powinna być zapamiętana.
  2. Odbiorca powinien zwrócić otrzymaną komórkę forward RM zmieniając: bit DIR z forward na backward, BN=0 a pola CCR, MCR, ER, CI i NI powinny być niezmienione z wyjątkiem:
  3. Jeżeli zachowana wartość EFCI jest ustawiona to CI=1, a wartość EFCI powinna być wyzerowana.
  4. Urządzenie odbiorcze, będące w stanie „wewnętrznego” przeciążenia, może zredukować wartość ER do prędkości jaką może obsłużyć lub/i ustawić CI=1 i NI=1. Odbiorca powinien również wyzerować QL i SN, zachowując wartości tych pól lub ustawić je zgodnie z I.371.
  5. Jeżeli odbiorca otrzyma kolejną ramkę forward RM, a inna „odwrócona” komórka RM czeka na transmisje to:
  6. Zawartość starej komórki może być nadpisana przez nową komórkę
  7. Stara komórka może być wysłana jako out-of-rate lub usunięta.
  8. Nowa komórka musi zostać wysłana.
  9. Niezależnie od wybranego wariantu w pkt. 3, zawartość starszej komórki nie może być wysłana po wysłaniu nowszej komórki.
  10. Urządzenie odbiorcze może wygenerować komórkę backward RM nie mając odebranej komórki forward RM. Prędkość takiej komórki powinna być ograniczona do 10komórek na sekundę, na połączenie. Odbiorca generując tą komórkę ustawia również CI=1 lub NI=1, BN=1 i kierunek na backward. Pozostałe wartości komórki RM powinny być ustawione zgodnie z Tabela 2.
  11. Jeżeli odebrana komórka forward RM ma CLP=1, to wygenerowana na jej podstawie komórka backward może być wysłana jako in-rate lub out-of-rate.
  12. „odwrócenie” odnosi się do procesu wygenerowania komórki backward RM jak odpowiedzi na otrzymaną komórkę forward RM

Ochrona haseł i kont

Wiele skutecznych ataków sieci było spowodowane brakiem odpowiedniego przeszkolenia użytkowników, na temat zasad bezpiecznego posługiwania się hasłem. Osoby nieświadome zagrożeń najchętniej posługują się hasłem dwuznakowym, lub co gorsza, wcale go nie używają. Poniższa lista zawiera najważniejsze reguły skutecznej ochrony haseł [1]:

  1. Nie używać hasła krótszego niż sześć znaków. Krótkie hasła są łatwe do złamania.
  2. Nie wykorzystywać w haśle żadnej części swojego nazwiska; łatwo je znaleźć w Internecie.
  3. Nie wykorzystywać w haśle imion swojego małżonka, dzieci, przyjaciół, zwierząt.
  4. Nie stosować jako hasła żadnych rzeczywistych imion lub ich fragmentów; są łatwe do zapamiętania, ale wiedzą o tym hakerzy.
  5. Nie używać w haśle żadnych informacji o sobie: na przykład numeru dowodu osobistego, daty urodzenia, numeru NIP, numeru rejestracyjnego samochodu itp.
  6. Nie używać żadnych słów dostępnych w słownikach lub leksykonach; hakerzy posługują się programami próbującymi wygenerować hasło, podstawiając kolejne pozycje słownika.
  7. Nie zapisywać hasła i nie przekazywać go nikomu bez względu na to kto to jest! Zdarzały się przypadki, że hakerzy zdobywali potrzebne im dane, wysyłając pocztą elektroniczną wezwanie do podania hasła, podszywając się pod administratora.
  8. Hasło powinno się składać z losowych kombinacji małych i wielkich liter.
  9. Hasło powinno zawierać litery, cyfry i znaki symboliczne.
  10. Używać haseł rodzaju: X$2sC.8Zd(, których nie można wygenerować ze słownika. Nawet odgadnięcie hasła wymaga jeszcze znajomości jego pisowni.
  11. Hasło należy zmieniać co najmniej raz na 90 dni i nigdy nie używać go ponownie.

System zarządzania regułami stosowania haseł, który udostępnia Windows NT, pomaga je chronić, ale nie zastąpi współpracy użytkowników. Możemy, co prawda, określić minimalną długość hasła lub częstotliwość zmian, ale nie jesteśmy w stanie skontrolować wykorzystania swoich imion, nazw psów czy daty urodzenia. Pewność bezpieczeństwa haseł jest bardzo ważna. Ewentualny atak z Internetu skierowany będzie prawdopodobnie właśnie na nie. Haker, który zdobędzie identyfikator i hasło użytkownika może korzystać z jego przywilejów. Na dodatek działalność intruza, posługującego się cudzymi danymi, jest trudna do wykrycia.

Program Windows NT Account Policies służący do ustalania strategii wobec kont użytkownika pozwala mieć pewność, że tak wrażliwe na atak fragmenty systemu są odpowiednio zabezpieczone, możemy skonfigurować: parametry haseł, czas dostępu do systemu, profile użytkownika oraz procedury blokowania konta. Wszystkie opcje okna dialogowego umożliwiają wprowadzenie ustaleń, które doprowadzą do frustracji większość hakerów, ale najważniejszą pozycją jest zdolność określenia minimalnej długości hasła. Określenie tej wielkości uniemożliwia posługiwanie się przez użytkowników pustym hasłem. Rozszyfrowanie zasady tworzenia nazw użytkowników nie jest zazwyczaj trudne, wiec brak hasła jest furtką zapraszającą intruzów.

Eksperci od ochrony systemów komputerowych zalecają stosowania haseł zawierających co najmniej sześć znaków. Opcja, określająca maksymalny czas posługiwania się hasłem, pozwala zagwarantować, ze hasła są zmieniane systematycznie; właściwym ustawieniem jest liczba dni między 90, a 120. Nawet jeśli intruz zdobędzie dane jakiegoś użytkownika, to po pewnym czasie utraci dostęp uzyskany dzięki kradzieży. Opcja Password Uniqueness (unikalność hasła) jest ściśle związana z poprzednią. Jeśli ją uaktywnimy, to system pamięta określoną liczbę haseł stosowanych przez użytkownika. Po zmianie, nie można powrócić do jednego z wcześniej stosowanych haseł, znanego być może osobie postronnej.

Należy również rozważyć implementację opcji blokowania konta. Siła tego ustawienia wynika ze skutecznego ograniczenia liczby nieudanych prób dostępu do systemu. Rozwiązanie bardzo frustruje hakerów, uniemożliwiając stosowanie programów generujących hasła, ale równie skutecznie doprowadza do pasji roztargnionych użytkowników. Można skonfigurować liczbę dozwolonych błędów podczas rejestracji w określonym przedziale czasu. Przekroczenie tej wielkości spowoduje zablokowanie konta. Mając zablokowane konto, użytkownik nie może zarejestrować się w systemie, nawet podając prawidłowe dane identyfikacyjne. Czas blokady konta można określić opcją Lockout Duration. Konto może być również blokowane bezterminowo, co oznacza, że uaktywnienie go wymaga interwencji administratora systemu. Typowe ustawienia opcji, to dopuszczenie do pięciu błędów w ciągu pół godziny i zablokowanie konta na 10-20 minut. W systemach wymagających skrajnej ochrony można ograniczyć liczbę nieudanych prób do trzech a konto blokować bezterminowo.

Zobaczmy, jak to działa: System został skonfigurowany w sposób dopuszczający trzy nieudane próby rejestracji w ciągu piętnastu minut oraz na bezterminową blokadę konta. Sprytny haker zdobył nazwę konta użytkownika oraz nazwę hosta, wykorzystując program podsłuchowy (sniffer) do przechwycenia komunikatu poczty elektronicznej. Kolejnym etapem ataku jest uruchomienie programu do generowania haseł na podstawie słownika. Już po trzech próbach konto zostaje zablokowane. Użytkownik, który nie może korzystać z systemu, sygnalizuje problem administratorowi, a ten podejmie decyzję o dalszym postępowaniu. Inną popularną furtkę, umożliwiającą skuteczny atak hakerom, tworzą predefiniowane konta Windows NT. Konto gościa, należy po prostu wyłączyć. Mimo ograniczonych przywilejów, można je wykorzystać do przejęcia ważnych, dla bezpieczeństwa serwera, plików, dotyczących  jakiejś maszyny, a następnie wykorzystać zdobyte informacje do skutecznej infiltracji systemu. Jeśli, z ważnych powodów, konto gościa jest niezbędne, to należy się upewnić, że hasło jest trudne do złamania, ograniczyć czas korzystania konta do standardowych godzin pracy przedsiębiorstwa oraz monitorować procesy rejestracji.

Ze względu na znaczenie konta administratora, trzeba mu poświęcić szczególną uwagę. Oto kilka zasad dotyczących tego konta [2]:

  1. Zmienić nazwę konta administratora –  ukrycie tego najważniejszego w systemie ochrony elementu utrudni nieco pracę hakerom.
  2. Zgodnie z wcześniejszymi wytycznymi, zapewnić, aby hasło było ekstremalnie trudne do złamania. Powinno się składać z czternastu znaków i wyglądać na przykład tak: n*D65.Vm&z8Ps%. Hasło należy zapamiętać.
  3. Ograniczyć liczbę administratorów. Im więcej osób zna hasło, tym większe prawdopodobieństwo jego ujawnienia. Stosować przekazywanie uprawnień administracyjnych za pomocą odpowiedniej konfiguracji grup.
  4. Stosować zasadę „jak najmniej uprawnień”; konta administratora należy używać tylko w wyjątkowych sytuacjach. Pamiętajmy, że połączenia realizowane z odległych stacji mogą być podsłuchane i przechwycone.
  5. Rozważyć wyłączenie możliwości zdalnego korzystania z serwera poprzez konto administratora. Mimo uciążliwości, rozwiązanie znacznie poprawia ochronę.

Nie wolno zapomnieć o pozostałych grupach predefiniowanych, takich jak Account Operators (operatorzy kont), Server Operators (operatorzy serwerów) oraz przede wszystkim o grupie Backup Operators (operatorów archiwizacji). Pamiętajmy, że grupa użytkowników uprawnionych do archiwizacji, może czytać (prawo restore) wszystkie pliki i katalogi. Jeśli haker zdobędzie dane użytkownika mającego pozwolenie backup & restore, lub osoby należącej do grupy operatorów archiwizacji, to mamy poważny problem. Należy wykorzystać menedżer użytkowników do zapewnienia wspomnianym grupom dokładnie takiego poziomu uprawnień, jaki jest niezbędny do pracy (zasada „jak najmniej uprawnień.


[1] D. Chapman, E. Zwicky „Building Internet Firewalls“,

[2] D. Chapman, E. Zwicky „Building Internet Firewalls“,

Sieciowy system operacyjny

praca napisana prawie dwadzieścia lat temu

Sieciowy system operacyjny na którym zbudowana jest sieć w ZAP S.A. Ostrów Wlkp. to produkt firmy NOVELL – NetWare 4.11 dla 100 użytkowników. Doskonale nadaje się dla małej i średniej wielkości firm oraz zespołów roboczych w dużych przedsiębiorstwach. System NetWare oferuje usługi, dzięki którym serwer jest wydajniejszy od serwerów obsługiwanych przez inne systemy operacyjne. Cechą NetWare 4.11 jest wyposażenie go we wszechstronne mechanizmy obsługi bazy danych o wszelkich zasobach i obiektach sieci. System obsługi tej bazy nazywa się NDS (NetWare Directory Services), a jej zasadniczą funkcją jest zorganizowanie dostępu do informacji o wszelkich obiektach w sieci globalnej (serwery, użytkownicy, grupy, drukarki, woluminy itd.) i kontrolowanie wzajemnej zależności tych obiektów. NDS kontroluje procesy sprawdzania tożsamości, dostępu do zasobów, zarządzania partycjami, emuluje bindery, wykonuje operacje rozproszone. Użytkownik widzi sieć jako jeden organizm i nie musi znać jej struktury, ani lokalizacji zasobów. Usługi bazy obiektowej NDS są sercem NetWere 4.11. Charakterystyka tego systemu zawiera wiele cech bardzo atrakcyjnych dla użytkownika np.

  • kompresja danych przechowywanych na dyskach z indywidualnym traktowaniem plików, w zależności od ich zawartości, częstości dostępu i parametrów ustawianych przez administratora, przeciętny współczynnik kompresji wynosi około 2:1, a maksymalny sięga 2.7:1, kompresja jest zadaniem o niskim priorytecie i jest wykonywana wtedy, gdy nie ma do obsłużenia innych zadań,
  • migracja danych przechowywanych na dysku na wolniejsze, lecz bardziej pojemne media; istotą migracji jest fakt, że odbywa się on automatycznie bez interwencji operatora, mechanizm migracji oparty jest na systemie obsługi wielkich pamięci zewnętrznych HCSS, przeznaczony głównie do współpracy z optycznymi bibliotekami danych,
  • system bezpieczeństwa; posiadający system kontroli i rejestracji zdarzeń,
    a także przeprowadzający unikalne sprawdzenie tożsamości użytkowników w trakcie ich dostępu do poszczególnych zasobów sieci, zawiera wiele narzędzi kontroli poziomów plików, usług katalogowych, administrowania i dostępu do serwera,
  • wprowadzenie graficznego środowiska dla sieciowych programów usługowych; mamy do wyboru programy z interfejsem znakowym pod DOS lub programy graficzne przeznaczone dla środowisk Windows i OS/2,
  • usługi drukowania; serwer drukarkowy potrafi obsłużyć do 256 drukarek, odwoływanie się tylko do nazw drukarek, dostarcza proste graficzne narzędzia drukowania,
  • archiwizacja danych; zawiera usługi zarządzania pamięciami zewnętrznymi
    o nazwie SMS (Storage Management Services), które charakteryzuje niezależność sprzętowa i programowa oraz wspólny format danych dla różnego typu urządzeń pamięciowych,
  • routing wieloprotokołowy, wbudowano usługi routingu, włączając w to możliwości obsługi protokołów IPX, TCP/IP i Apple Talk, zawarto także wiele rozszerzonych możliwości dostępu do lokalnych i rozległych systemów sieciowych,
  • zarządzanie systemem, zapewnia doskonałe narzędzia i możliwości zarządzania i administracją siecią, wewnętrzna struktura systemu zawiera wbudowane mechanizmy związane z zarządzaniem,
  • obsługa języków narodowych i elektroniczna dokumentacja.

W NetWare 4.11 zastosowano alokację ułamkową bloków pamięci, która automatycznie dokonuje podziału nie w pełni wykorzystanych bloków na mniejsze jednostki po 512 bajtów.

System współpracuje z rodzinami protokołów XNS, TCP/IP, OSI i SNA. NetWare 4.11 jest wyposażony w wiele funkcji zarządzania siecią a dostęp do nich można uzyskać ze zdalnych stacji sieci (współpraca z protokołem zarządzania SNMP) oraz elementy sztucznej inteligencji. Dzięki obserwowaniu liczby użytkowników korzystających z danego programu aplikacyjnego, system może adaptować swoje działanie, gdy liczba użytkowników spada, system ogranicza wielkość pamięci typu cache dla obsługi danej aplikacji. System zapewnia możliwość korzystania ze CD-ROM, automatycznie konfiguruje pamięć serwera, funkcja EFS sprawia, że pliki usunięte przez użytkowników są przechowywane na dysku serwera tak długo, póki jest wolne miejsce.