Category Archives: prace magisterskie

prace magisterskie z informatyki

Wprowadzenie pracy magisterskiej

W obecnych czasach obserwujemy bardzo szybki rozwój sieci LAN, ponieważ za­pewniają: współdzielenie zasobów komputerowych, wymianę programów, dostęp do informacji oraz urządzeń zewnętrznych, takich jak drukarki sieciowe. Często jednak zasięg tych sieci nie gwarantuje połączenia ze wszystkimi stacjami robo­czymi, albowiem nie wszędzie można ułożyć okablowanie. W takim przypadku stosuje się sieci bezprzewodowe, w których dane przesyłane są w oparciu o pro­mieniowanie elektromagnetyczne, dzięki czemu nie ma potrzeby stosowania oka­blowania. WLAN zapewnia elastyczność, mobilność, a także przezroczystość sieci, gwarantując bezpieczny dostęp do wszelkich aplikacji oraz zasobów sieciowych z dowolnego miejsca i każdego urządzenia klienckiego. Sieci bezprzewodowe ofe­rują użytkownikom końcowym coraz większy zakres usług.

Cel pracy

Celem niniejszej pracy jest zaprezentowanie sieci komputerowych prze­wodowych i bezprzewodowych, zastosowanie technologii VoIP w tych sieciach jako alternatywy dla standardowej telefonii, a także sposobu projektowania sieci LAN i WLAN.

Zakres pracy

W pracy znajduje się opis architektury sieci LAN oraz WLAN. Zakres pracy obejmuje także uwzględnienie przekazu VoIP (ang. Voice over IP), czyli technologii służącej do przesyłania głosu w postaci pakietowej po­przez sieci transmisyjne. Najważniejszym punktem pracy jest rozdział o projektowaniu sieci komputerowych. W ramach pracy realizowałam projekt sieci WLAN dla szkoły podstawowej, w którym zastosowałam technologię VoIP.

Rodzaje transformacji danych w modelowanym SIE

Niemożność całkowitego sformalizowania opisu modelowanego SIE implikuje określone następstwa w odniesieniu do sposobów przetwarzania (transformacji) informacji w modelowanym SIE (rys.4.3.).

Rys.4.3. Logiczny łańcuch przyczyn i następstw niesformalizowanego opisu modelowanego SIE [8]

 

W procesie informacyjnym, realizowanym przez modelowany SIE wyróżnić można dwie zasadnicze operacje transformacji danych, które od celu i sposobu realizacji nazwano w kolejności chronologicznej:

  • – algorytmiczną transformację identyfikacyjno-ocenową,
  • – heurystyczną transformację ineterpretacyjno-decyzyjną.

Strukturę chronologiczną transformacji danych przedstawiono na rys. 4.4.

Wyszczególnione rodzaje transformacji pozostają w ścisłym związku z konstytuowanym modelem SIE, który jako model nieformalny nie może stanowić podstawy do zbudowania w pełni zalgorytmizowanej procedury przetwarzania danych.

Rys.4.4. Struktura chronologiczna transformacji danych w modelowanym SIE

 

Z faktu, że procedury przetwarzania danych mają charakter niealgorytmiczny wynika niemożność jednoznacznego określenia danych wejściowych (do SIE), niosących informację użyteczną.

Nie jest to jednak mankamentem modelowanego SIE, lecz jego właściwością, która stanowi podstawę założeń odnośnie adaptacyjności SIE rozumianej w sensie elastyczności działania jego podsystemów. Te cechy modelowanego systemu, należące do obszaru cech wtórnych, implikowane są, jak już wcześniej stwierdzono, faktem iż SZPS, względem którego SIE pełni funkcje użytkowe, jest systemem rozwijającym się.

[na tym kończymy w tym roku prezentację tej pracy magisterskiej]

Wymagania techniczne programu Joomla!

praca magisterska z 2008 roku

Jest kilka technicznych wymogów dla skutecznego stworzenia strony internetowej.

  • Komputer

To nasze podstawowe narzędzie pracy. By móc na nim komfortowo działać potrzebujemy przynajmniej średniej klasy komputera – nawet komputer sprzed 2-3 lat będzie do tego celu odpowiedni. Wiadomo jednak, że nowszy komputer gwarantuje mniejsza awaryjność, ponadto pozwala na znaczne oszczędności czasu, ponieważ szybszy jest dostęp do danych i proces ich przetwarzania. Może to być przydatne w szczególności podczas pracy z edytorami graficznymi wymagającymi dużej mocy obliczeniowej procesora oraz wydajnej karty graficznej. Odpowiednia ilość pamięci operacyjnej (RAM) – 1 GB lub więcej również znacząco poprawi komfort pracy.

  • Dostęp do Internetu

W dzisiejszych czasach dostęp do sieci Internet staje się czymś powszechnym i pożądanym jak dostęp do telefonu, telewizji czy wręcz energii elektrycznej. Aby móc publikować stronę czy dodawać do niej zawartość, potrzebny jest stały dostęp do Internetu, a jeśli nie stały, to choćby czasowy, np. z kafejki internetowej.

  • Klient FTP

FTP (ang. File Transfer Protocol) jest standardowym protokołem służącym do transmisji plików przez Internet. Wgrywanie plików na serwer poprzez protokół FTP wymaga specjalnego oprogramowania tzw. klienta FTP, który pozwala wgrać dowolny plik na zdalny serwer lub ściągnąć go z serwera. W funkcje klienta FTP wyposażone są obecnie prawie wszystkie popularne przeglądarki internetowe. Jeśli chcemy użyć przeglądarki w trybie FTP, to w polu adresu na pierwszej pozycji wpisujemy nie http://, ale ftp://. Następnie wpisujemy adres serwera. Po nawiązaniu połączenia z serwerem, musimy podać odpowiedni login i hasło celem autoryzacji i już po chwili można wysyłać i odbierać pliki.

Jednak za używaniem wyspecjalizowanych klientów FTP przemawia wiele argumentów, m.in[1]:

  • większa prędkość transferu,
  • wznawianie niedokończonych transferów,
  • budowa zbliżona do menadżera plików (intuicyjna, prosta obsługa),
  • wykorzystanie techniki „przeciągnij i upuść”,
  • możliwość edycji i przechowywania haseł dostępu,
  • synchronizacja katalogów,
  • układanie zadań w kolej ce,
  • podgląd postępu kopiowania i kasowania,
  • edycja katalogów i plików na koncie(np. modyfikacja nazw i rozszerzeń),
  • szyfrowanie transmisji.

Przykładowymi klientami FTP są SmartFTP, FileZilla, WinSCP, Total Commander. Do zarządzania plikami konta użyłem programu darmowego programu WinSCP, który umożliwia realizację bezpiecznego połączenia szyfrowanego.

  • Przeglądarka internetowa

Przeglądarka internetowa jest programem komputerowym służącym do przeglądania stron WWW. Na większości komputerów PC z zainstalowanym systemem operacyjnym Microsoft Windows domyślną przeglądarką jest Internet Explorer.

W systemie CMS zarządzanie stroną (tworzenie nowych stron czy edycja ich zawartości) odbywa się za pomocą panelu administracyjnego – wydzielonej części serwisu WWW dostępnej tylko dla użytkowników posiadających konto i odpowiednie uprawnienia. Zasada działania panelu administracyjnego jest podobna do obsługi poczty elektronicznej lub internetowego konta bankowego. Aplikacja CMS pracuje na serwerze WWW, a do jej obsługi wystarcza standardowa przeglądarka internetowa oraz podstawowa znajomość oprogramowania biurowego – dzięki temu rozwiązaniu nie ma konieczności instalowania dodatkowego oprogramowania na komputerach osób współtworzących serwis. Przeważająca część paneli administracyjnych swoją pełną funkcjonalność prezentuje właśnie w przeglądarce IE, jest jednak sporo takich systemów, które działają równie dobrze, jeśli nie lepiej, w alternatywnych przeglądarkach stron WWW. W przygotowaniu projektu użyłem właśnie takiej przeglądarki, jaką jest Mozilla Firefox, która należy do rodziny darmowych przeglądarek dostępnych dla systemów operacyjnych Windows, GNU/Linux i Mac OS X. Jest szybka, zajmuje mało miejsca, a jednocześnie oferuje szerokie możliwości.

  • Miejsce w sieci

Żeby umieścić stronę WWW w Internecie potrzebna jest odpowiednia ilość powierzchni dyskowej i komputer podłączony do sieci Internet, jednak niewiele osób dysponuje komputerem z zainstalowanym oprogramowaniem serwera WWW czynnym 24 godziny na dobę i podłączonym do Internetu odpowiednio szybkim łączem[2]. Z rozwiązaniem tego problemu przychodzą nam darmowe lub płatne usługi serwerów WWW, na których można umieścić pliki składające się na serwis internetowy. Opublikowanie serwisu na serwerze WWW jest podstawą zaistnienia każdej strony w Internecie. Serwer wirtualny podobnie jak hosting, jest usługą, którą provider internetowy świadczy na rzecz swoich klientów. Różnica tkwi w tym, iż serwer wirtualny to emulacja serwera fizycznego, czyli otrzymujemy możliwość administracji zasobami serwera, kontami, prawami dostępu. Z serwerów wirtualnych korzystają zazwyczaj firmy, które potrzebują dużej ilości miejsca na pliki, wielu skrzynek pocztowych, dużego transferu itd.

Z kolei hosting to prosta usługa internetowa, która polega na goszczeniu klienta i udostępnieniu mu zazwyczaj jednego konta na strony WWW z dostępem poprzez klienta FTP oraz skrzynkę e-mail. Hosting jest oferowany najczęściej w formie gotowych pakietów obejmujących szereg usług dodatkowych, jak dostęp do konta przez FTP, wbudowane oprogramowanie bazy danych, zarządzanie kontem poprzez panel administracyjny, rejestracja bądź przeniesienie domeny. Darmowy hosting jest dobry do stawiania pierwszych kroków w Internecie, lecz oprócz zalet niesie z sobą niedogodności w postaci:

  • niemożność powiększania konta o dodatkową powierzchnię,
  • ograniczone transfery, co powoduje wolne wczytywanie stron WWW,
  • ukazywanie się reklam w naszym serwisie, choć nie zawsze jest to regułą,
  • ograniczone możliwości konfiguracji,
  • spora awaryjność konta,
  • w przypadku zawieszenia usług operator może skasować konto bez powiadomienia,
  • brak kopii zapasowych.

Konto płatne pozbawione jest tych wad. Podczas sprawdzania oferty płatnych firm hostingowych, należy zaczerpnąć wszystkich możliwych informacji o parametrach konta i warunkach, na jakich jest ono udostępniane.

Przy wybieraniu konta należy zwrócić uwagę na następujące parametry (tab.2):

  • wyrażona w megabajtach lub gigabajtach ilość dostępnego miejsca, która określi rozmiary naszego serwisu. Często również spotyka się z informacją określającą maksymalny rozmiar pliku,
  • wielkość transferu, który określa limit danych, jakie można przesłać i pobrać z serwera użytkownika w danym okresie, np. przez miesiąc lub rok. Jeżeli internauci będą pobierać z naszej strony duże pliki graficzne lub filmy, to potrzebny jest bardzo duży transfer – ok. 20 GB miesięcznie, jeśli strona służy do przeglądania informacji wystarczy transfer rzędu 4 GB miesięcznie. Należy zwrócić uwagę, że wartość zapotrzebowania transferu zwykle ulega zmianie, gdyż popularność serwisu może rosnąć lub maleć. Również nie każde odwiedziny internauty wiążą się z takim samym zużyciem transferu, gdyż często przeglądarki zapisują na dysku użytkownika pliki tymczasowe, najczęściej pliki graficzne z danej strony, tylko po to, aby przy następnym wejściu na stronę nie pobierać całej zawartości od nowa, co zapewnia większość prędkość odczytania strony oraz zmniejszenia obciążenia serwera,
  • liczba baz danych, np. MySQL. Baza danych to nieodłączny element serwisów WWW. W połączeniu z językiem programowania PHP daje ona przeogromne możliwości tworzenia witryn,
  • dodatkowe możliwości techniczne, np. obsługiwane standardy programowania PHP, CGI, ASP. Jeśli nasz serwis jest zaprojektowany w języku PHP, a serwer nie posiada jego obsługi, uniemożliwi to wyświetlenie witryny.

Przed wykupieniem serwera w danej firmie, należy wcześniej skorzystać z opcji bezpłatnego testowania usługi. Tylko wtedy będziemy mieć pewność co do odpowiedniego działania serwera, łatwości jego administrowania oraz konfiguracji.

Tabela 2. Przykładowe zestawienie usług hostingowych na dzień 10.07.2008

Nazwa firmy Yoyo.pl EasyISP.pl WebSerwer.pl Home.pl
Pojemność serwera 150 MB 500 MB 5 GB 20 GB
Transfer miesięczny bez limitu 10 GB 25 GB 900 GB
liczba baz MySQL 1 1 1 100
Liczba domen bez limitu bez limitu bez limitu bez limitu
Moduł phpMyAdmin[3] tak tak tak tak
Panel administracyjny[4] WebAdmin Direct Admin WebAdmin WebAdmin
liczba kont FTP 1 1 1 bez limitu
Konta pocztowe 1 15 bez limitu bez limitu
Test konta 7 dni 14 dni 30 dni
Opłata roczna brutto darmowe 79,30 zł 363,56 zł 549,10 zł
  • Domena

Domena internetowa to alfanumeryczne tłumaczenie adresu IP identyfikującego każdy komputer podłączony do Internetu. Dla użytkownika jest to nazwa wskazująca położenie określonej strony WWW w sieci. Z prawnego punku widzenia, domena internetowa to znak o określonej wartości majątkowej, wynikającej z jego funkcji odróżniającej oraz faktycznej wyłączności w zakresie jego użytkowania. Jedynie osoba lub firma, instytucja, która zarejestrowała tę domenę jest prawnym posiadaczem na okres zawarty w umowie. Rejestracja domeny internetowej kreuje jedynie umowne prawa i obowiązki wynikające z umowy z rejestratorem (pośrednikiem) i nie powoduje powstania po stronie jej dysponenta żadnego wyłączonego prawa do domeny internetowej[5]. Użycie domeny nie jest możliwe, dopóki nie zostanie ona zarejestrowana. Nie jest możliwe zarejestrowanie domeny należącej już do kogoś innego. W każdym kraju istnieje jednostka odpowiedzialna za zarządzanie rynkiem rejestracji domen internetowych. Rejestracją domen w Polsce zarządza NASK – Naukowa i Akademicka Sieć Komputerowa, która została utworzona przy Uniwersytecie Warszawskim w 1991 roku. Aby móc zarejestrować domenę trzeba spełniać następujące warunki: domena musi być wolna oraz należy mieć ukończone 18 lat.

  • Środowisko implementacji

Do opracowania projektu wykorzystany został komputer o następującej konfiguracji:

  • procesor AMD Athlon™ 800MHz, 512 MB RAM, dysk twardy Seagate 80GB, karta graficzna NVIDIA GeForce2,
  • system operacyjny Windows XP Professional PL,
  • przeglądarka internetowa Mozilla Firefox wersj a 3.0,
  • edytor grafi czny GIMP 2.4.6,
  • pakiet WebServ, w którego skład wchodzą[6]:

o Apache 2.2.6 – jest to wiodący program do obsługi serwerów HTTP na całym świecie. WebServ zapewnia w pełni darmowy i stabilny program stosowany przez wielu użytkowników oraz firmy hostingowe na świecie,

o PHP 4.4.7 – jest zaliczany do najnowszych technologii, choć korzenie tego programowania sięgają początków Internetu. Przy użyciu tego narzędzia można stworzyć własną dynamiczną stronę internetową, o MySQL 5.0.45 – to jeden z najpopularniejszych darmowych silników relacyjnych baz danych. Jego atutem jest szybkość i funkcjonalność, a w połączeniu ze skryptami PHP umożliwia prawidłowe działanie oraz ogromną funkcjonalność dla dynamicznych stron,

o Perl 5.10.0 – Perl to interpretowany język programowania autorstwa Larry’ego Walla przeznaczony głównie do pracy z danymi tekstowymi, ale również doskonale radzący sobie z wszystkimi potrzebami programisty czy administratora systemu,

o MySQL Control Center 0.9.4 – graficzna aplikacją służąca do sprawnego zarządzanie bazami danych MySQL,

o CesarFTP 0.99g – CesarFTP jest to serwer FTP. Jeśli udostępniamy konto WWW osobie, która nie ma bezpośredniego dostępu do naszego komputera, będzie mogła zarządzać swoimi plikami z każdego miejsca na świecie, dodatkowo takich osób z kontami WWW na naszym serwerze może być wiele,

o Webalizer 2.1 – jest dostępnym na licencji GPL analizatorem logów serwera Apache. Generuje szczegółowe statystyki odwiedzin danego serwisu WWW w formacie HTML,

o No-IP Dynamic Update Client 2.2.1 – dzięki No-IP możemy posiadać wiele własnych domen. Wystarczy wpisać w przeglądarce adres strony no-ip.com, zarejestrować się, a następnie w panelu administracyjnym wpisać wybrane przez siebie domeny,

o DynDNS Update Client 3.1.0.15 – aplikacja która mapuje nazwę komputera na adres IP,

o phpMyAdmin 2.11.4 – to napisane w języku PHP narzędzie służące do łatwego zarządzania bazą danych MySQL.

WebServ jest pakietem umożliwiającym uruchomienie serwera WWW z obsługą PHP i MySQL na komputerze bez łączenia się z Internetem. Dzięki temu możemy w całości wykonać projekt na lokalnym komputerze, a następnie umieścić go w sieci. Oczywiście Joomla! umożliwia tworzenie portalu WWW bezpośrednio na serwerze naszego dostawcy hostingowego. Używanie programu WebServ nie jest konieczne, lecz wygodniejsze.

[1]   Zeldman J., „Projektowanie serwisów WWW. Standardy sieciowe.”, Helion, Gliwice 2007

[2]  Jarosz D., „Płatny hosting czyli gdzie się ulokować”, Magazyn Internet 2006

[3]   phpMyAdmin jest narzędziem pozwalającym zarządzać bazą MySQL. Program ten zapewnia realizację wszystkich podstawowych funkcji: tworzenie i usuwanie tabel, umieszczanie rekordów oraz admini stracj ę bazą

[4]   Panel administracyjny to bogaty zestaw skryptów i aplikacji służący do zarządzania serwerem WWW, e-mail i FTP oraz kilkoma innymi usługami. Za jego pomocą można kontrolować ustawienia serwera

[5]   Kolbusz E., „Informatyka w zarządzaniu”, Zeszyt naukowy Instytutu Informatyki w Zarządzaniu, Uniwersytet Szczeciński, Szczecin 1999

Znaczenie informacji w kosztach eksploatacji obiektów technicznych

Skuteczność funkcjonowania systemu eksploatacji obiektów technicznych zależy w dużej mierze od dopływu odpowiednich informacji.

Menadżerowie przedsiębiorstw w oparciu o dostarczane informacje podejmują istotne decyzje, niekiedy strategiczne dla funkcjonowania przedsiębiorstw. Decyzje te jednak opierają się przeważnie na niepełnych bądź zniekształconych informacjach, a w szczególności informacjach dotyczących kosztów wytwarzania. Stąd też większość przedsiębiorstw taki stan stwierdza wówczas gdy wyraźnie obniża się ich poziom konkurencyjności i gdy gwałtownie zmniejszają się ich zyski.

Przyczyną tego jest między innymi niewłaściwie zorganizowany system informacyjny i zarządzanie nim. Koszty pracy bezpośredniej i materiałów, a więc najważniejsze wśród kosztów produkcji, z łatwością można powiązać z poszczególnymi produktami, natomiast bardzo trudno ustalić koszty pośrednie.

Obecnie w wielu nowoczesnych zakładach występują linie produkcyjne, gdzie praca bezpośrednia stanowi mały ułamek kosztów przedsiębiorstwa. Jednocześnie rosną koszty działalności pomocniczej a w niej koszty utrzymania ruchu.

W pracy [18] przedstawiono wyniki badań dotyczących analizy kosztów wydziałowych. Stwierdzono że: „jednym z istotnych składników, w którym należy poszukiwać rezerw kosztowych, są koszty wydziałowe”. Udział kosztów wydziałowych w całości kosztów wyniósł 20,8% (a przy produkcji odlewniczej nawet 50,2%). Analiza udziałów procentowych oraz wartości poszczególnych składników pozwoliła na sformułowanie wniosku, że jednym z dość istotnych elementów kosztów wydziałowych są wysokie koszty napraw a podejmowanie decyzji naprawczych powinno opierać się na wiarygodnych informacjach otrzymywanych z procesu eksploatacji maszyn i urządzeń. Stąd też konieczne jest utworzenie odpowiedniego systemu zbierania i przetwarzania danych eksploatacyjnych tych obiektów.

W pracy [4] jako główne przyczyny słabości rozwiązań eksploatacyjnych wskazano między innymi:

  • – niemożność dostarczenia przez systemy informacyjne niezbędnych danych do oceny eksploatacji i kosztów z nią związanych,
  • – brak niezbędnych wskaźników wydajności do oceny kierowania eksploatacją,
  • – fakt, iż menedżerowie odpowiedzialni za eksploatację systemów technicznych nie są w stanie w sposób obiektywny ocenić działalności swojej i swoich podwładnych,

Kontrola czasu życia urządzeń, oczekiwanego oraz łącznego czasu ich życia, kosztów eksploatacji w zestawieniu z kosztami odtworzenia, zbieranie danych niezbędnych do realizacji zaplanowanej wymiany każdej części i realizacji planu wymiany stanowią podstawę do opracowania standardów i wskaźników dla potrzeb eksploatacji systemów technicznych.

Macierzowe modelowanie niezawodności początkowej elementów maszyn

Poziom niezawodności początkowej (technicznej) każdego elementu jest  modelowany głownie w sferze projektowania za pomocą zbioru cech  związanych z dokładnością   wymiarowo – kształtową Dwk,  materiałem Wm, stanem warstwy wierzchniej ( W W ) Sww oraz podzbiorem cech modelowanych  w montażu Me. Zbiór ten powinien być ustalony w ten sposób, żeby , ukształtowany poziom niezawodności początkowej zagwarantował następnie określony przebieg funkcji niezawodności elementu w czasie jego istnienia i (życia).

Funkcja niezawodności powinna być kształtowana w zakładowej czy też branżowej strukturze systemu jakości określonego ogólnie grupą norm ISO 9000 [7, 14] obejmującym wszystkie istotne etapy związane z pow­stawaniem i istnieniem elementu, co można przedstawić pętlą jakości (rys. 7). Pomimo że wymienione normy traktują niezawodność jako jedną z cech jakości, to jednak należy pamiętać, iż cecha ta decydująco stanowi o bezpieczeństwie obiektów mechanicznych, ich kosztach eksploatacji oraz jest w dalszym ciągu głównym przekonującym argumentem w ekspansji  na światowym rynku.

O ważności właściwego kształtowania niezawodności elementów maszyn w aspekcie ich jakości świadczą najlepiej opracowane metody prognozowania trwałości elementów z wykorzystaniem techniki komputerowej [24], wspomagające projektowanie obiektów. W podobnym zamiarze czynione są przedsięwzięcia w sferze wytwarzania, szczególnie w zakresie doboru wariantów i struktury procesy, warunków obróbki, kontroli procesu [1, 2] nawet monitorowania tzw. „procesów specjalnych „.

Uwzględnianie dużej liczby aspektów ekonomicznych i fizycz­nych w badaniach, w ujęciu systemowym, wymaga przede wszystkim opisywanie obszaru zdatności  Wz

w formie zwartej, a jednocześnie przejrzystej, wygodnej do zaprogramowania komputerowego [27]. Uwarunkowania te powinny ułatwić bieżącą weryfikację właściwości poszczególnych cech przy sterowaniu niezawo­dnością R(0) elementów. Biorąc to pod uwagę autor proponuje opisanie obszaru Wz za pomocą macierzy [2, 27]

AWz = [a]ij                                                                                                     (101)

gdzie : i –  liczba kolumn macierzy zawierająca cechy,

j – liczba wierszy macierzy zawierająca obszary zdatności podzbiorów

cech Dwk, Wm, Sww, Me.

W oparciu o dotychczasowy stan wiedzy i własne doświadczenia z zakresu omawianego zagadnienia [2] autor przedstawia propozycję opisania obszaru zdatności w odniesieniu szczególnie do elementów stanowiących tzw. „słabe ogniwa” w strukturze niezawodnościowej systemu technicznego.

Podzbiór cech wymiarowo-kształtowych (konstrukcyjnych) Dwk powinien zawierać następujące cechy o właściwościach granicznych:

– wymiary liniowe wielkości i kształtu   ( Bai, Aai ), ( i = 1,…, n ),

– wymiary kątowe wielkości i kształtu    ( Baj, Aaj ), ( j = 1,…, m ),

  • wymiary liniowe charakteryzujące wza­jemne położenie powierzchni elementu

( Bapk, Aapk), ( k = 1,…, K )

  • wymiary kątowe charakteryzujące wzajemne położenie powierzchni elementu

( Bapl, Aapl), ( l = 1,…, L )

cechy (opisowe) charakteryzujące spo­sób łączenia sąsiednich powierzchni (tzw. powierzchnie przejściowe)   ( Codr, Corg ), ( r = 1,…, R ),

  • dodatkowe cechy (opisowe) związane ze specyfiką rozpatrywanego elementu

(Csdv, Csyg ), ( v = 1,…, V ).

Właściwości graniczne tych cech wyznaczają podobszar zdatności elementu Wwk Ì Wz obrazowany za pomocą tolerancji, który może być przedstawiony wektorem:

Wwk = [ Tai, Taj, Tapk, Tapl, TCor, TCsv ]                                                     (83)

lub też macierzą właściwości granicznych cech:

(84)

Drugim ważnym podzbiorem jest podzbiór charakteryzujący właściwości materiału (tworzywa) elementu Wm na który składają się [2]:

– struktura materiału (mikrostruktura) S,

– parametry mechaniczne M,

– cechy uzupełniające X stanowiące parametry fizyczno-chemiczne, nie

uwzględnione w dwóch poprzednich grupach. W szczególności będą to cechy obejmujące:

– rodzaj fazy                                                      CFi, ( i = l,…, n ),

– objętość względną fazy                                  ( CFvd, CFvg ),

– rozmieszczenie faz                                          ( CFRd, CFRg ),

– rozmieszczenie składników faz                      ( CFsd, CFsg ),

– rozmiar ziarna                                                 ( Czd, Czg ),

– rozmieszczenie ziaren                                     ( Czrd, Czrg),

– granice krawędzi ziaren                                  ( Czkd, Czkg )

– teksturę ziaren (strefę ukierunkowania)          ( CTzd, CTzg ),

– teksturę krystaliczną                                        ( CTkd, CTkg ),

– rodzaj defektów struktury                               ( Cdj, ( j = 1,…, m )),

– gęstość defektów struktury                             ( Cdgd, Cdgg ),

– okresowość struktury                                      ( Cfsd, Cfsg ),

– twardość                                                          ( HM(d), HMg ),

– granicę plastyczności                                      ( Re(d), Reg ),

– wytrzymałość na rozciąganie                          ( Rm(d), Rmg ),

– udarność                                                          ( Ud, Ug ),

– moduł Younga                                                  ( Ed, Eg ),

– naprężenie własne (makronaprężenia)            ( sM(d), sMg ),

– wytrzymałość na pełzanie                               ( RzT/t(d), RzT/tg ),

– granicę pełzania                                               ( Rx/T/t(d), Rx/T/tg ),

– cechy uzupełniające                                         ( XMld, XMlg ), ( l = 1,…, L ),

Podobszar zdatności łopatki Wm Ì Wz warunkowany podzbiorem Wm wy­znacza następujący wektor:

Wm = [ TCFi, TCFv, TCFR, TCFs, TCz, TCzr, TCzk, TCTz, TCTk, TCDj, TCdg, TCfs, THM, TRe, TRm, TU, TE, TsM, TRz/T/t, TRx/T/t, TXML ]                                 (85)

lub macierz wartości granicznych cech:

(86)

Z kolei podzbiór cech określających stan i właściwości użytkowe WW elementu obejmuje [2]:

– charakterystykę struktury geometrycznej powierzchni SGww,

– charakterystykę struktury fizyczno-chemicznej stref WW SFww. Zalecane podzbiory cech charakterystyki struktury geometrycznej powierz­chni ujęte są w licznych normach krajowych i zagranicznych, jak np. PN-74/M-04255, PN-87/M-04251 oraz PN-87/M-04256/01 i 02. Propozycję z tego zakresu przedstawiono również w [1, 2]. Biorąc pod uwagę całokształt wymagań niezawodnościowych rozważanych elementów, w ich charakterystyce struktury geometrycznej proponuje się uwzględnienie:

– wysokości falistości powierzchni                            ( Wz(d), Wzg ),

– średniego odstępu falistości                                    ( Sw(d), Swg ),

– największej wysokości falistości                             ( Wmax(d), Wmaxg ),

– średniego arytmetycznego odchylenia profilu         ( Ra(d), Rag ),

– wysokości chropowatości według 10 punktów       ( Rz(d), Rzg ),

– maksymalnej wysokości chropowatości                 ( Rmax(d), Rmaxg ),

– średniego odstępu chropowatości                           ( Sm(d), Smg ),

– średniego odstępu miejscowych wzniesień

profilu chropowatości                                                 ( Sd, Sg ),

– kierunkowości struktury powierzchni                     (ChTd, ChTg ),

– wskaźnika anizotropii                                              (ad, ag ),

– parametru stereometrii powierzchni                        ( ChVd, ChVg ),

– wady struktury geometrycznej powierzchni             ( PAd, PAg ),

Podzbiór ten tworzy podobszar zdatności WSG Ì Www który można przed­stawić wektorem:

 

WSG = [ TWz, TSw, TWmax, TRa, TRz, TRmax, TSm, TS, TChT, Ta, TChV, TPA ]

(87)

lub macierzą właściwości granicznych cech:

(88)

Podzbiór cech charakteryzujących strukturę fizyczno-chemiczną stref WW, zgodnie z PN-87/M-04250 i zaleceniami podanymi w [2], powinien zawierać:

– rodzaj fazy                                                WFi, ( i = 1,…, n ),

– objętość względną fazy                            ( WFvd, WFvg ),

– rozmieszczenie faz                                   ( WFRd, WFRg ),

– rozmieszczenie składników faz                ( WFsd, WFsg ),

– wymiar ziarna                                           ( Wzd, Wzg ),

– rozmieszczenie ziarn                                ( Wzrd, Wzrg ),

– granice krawędzi ziarn                              ( Wzkd, Wzkg ),

– teksturę ziarn (strefę ukierunkowania)     ( WTzd, WTzg ),

– teksturę krystaliczną                                  ( WTkd, WTkg ),

rodzaj defektów struktury                          Wdj, ( j = 1,…, m ),

– gęstość defektów struktury                        ( Wdgd, Wdgg ),

– okresowość struktury                                 ( Wfsd, Wfsg ),

– twardość                                                     ( Hw(d), Hwg ),

– mikrotwardość                                            ( Hmk(d), Hmkg ),

– mezotwardość                                             ( Hmz(d), Hmzg ),

– naprężenia własne                                       ( sw(d), swg ),

– cechy uzupełniające                                    ( Xwl(d), Xwlg ), ( l = 1,…, ł )

Wektor podobszaru zdatności WSF Ì Www przyjmuje postać:

WSF = [TWFi, TWFv, TWFR, TWFs, TWz, TWzr, Twzk, TWTz, TWTk, TWdj, TWdg,  TWfs, THw, THmk, THmz, Tsw, TXwl, ],                                                     (89)

a macierz:

(90)

Do podzbioru właściwości użytkowych ww można zaliczyć:

– wytrzymałość statyczną elementu           ( ss(d), ssg ),

– wytrzymałość zmęczeniową elementu    ( Z­d, Zg ),

– odporność na zużycie korozyjne             ( Z­k(d), Zkg ),

– odporność na zużycie erozyjne               ( Z­e(d), Zeg ),

– żarowytrzymalość                                   ( R’zT/t(d), R’zT/tg ),

– odporność na pękanie                              ( Kcd, Kcg ),

cechy uzupełniające                                ( Cuid, Cuig ), ( i = 1,…, n )

 

Przedstawiony podzbiór tworzy podobszar zdatności Wu Ì Www przedstawio­ny wektorem:

Wu = [ Tss, TZ, TZk, TZe, TRz/T/t, TKc, TCui ]                                                 (91)

(92)

Ważnym, mało docenianym podzbiorem cech jest podzbiór charaktery­zujący właściwości zamontowanego elementu w zespole czy całym systemie. Mogą to być:

– cechy sprawnościowe (wydajnościowe) systemu -ustalone podzbiorami Dwk i Sww elementu (CMSid, CMSig ), ( i = 1,…, n ),

– cechy związane z wyrównoważeniem elementów

(CMWjd, CMWjg ), ( j = 1,…, m ),

– cechy rozrzutu częstotliwości własnej kompletu elementów w systemie

(CMFld CMflg ), ( l = 1,…,L ),

– cechy zapewniające niski poziom głośności ( CMGkd, CMGkg ), ( k = 1,…, K ),

– cechy uzupełniające (CMXod, CMXog ), ( o = l,…, O ).

Zbiór wymienionych cech tworzy podobszar zdatności WMe Ì Wz o postaci:

WMe = [ TCMSi, TCMWj, TCMFl, TCMGk, TCMXo ]                                 (93)

i macierz:

(94)

Jak już wspomniano wcześniej, to każda cecha, oprócz nazwy, powinna zawierać wartość liczbową (tolerancję lub wartości graniczne) lub charakterystykę opisową. Można też przyporządkować Jej dodatkowe oznaczenia identyfikacyj­ne, np. numer podzespołu, zespołu systemu lub numer montażowy. Powinny też być podawane informacje o sposobie wyznaczania wartości liczbowych (wykresy, normatywy, wzory matematyczne) i o rodzaju dokumentacji, gdzie cecha powinna być zapisana.

Analiza cech obszaru Wz (elementów macierzy AWz ) powinna być wspoma­gana opracowywanymi zależnościami pomiędzy warunkami (parametrami), wariantami procesu technologicznego, oddziaływaniami czynników wymusza­jących wj(t) i cechami yij czy nawet podzbiorami zdatności w postaci:

yij = f (Xl); ( l = 1, 2,…, L )                                                                                (95)

gdzie: i – liczba kolumn macierzy ( i = l, 2,…, 21 ),

j – liczba wierszy macierzy ( j = l, 2,…, 6 ),

lub też w postaci:

Wzr = f (Xl); ( r = 1, 2,…, 6 ).                                                                              (96)

Mogą być również badane zależności (jako relacje wewnętrzne) pomiędzy poszczególnymi elementami macierzy AWz:

bez zajścia s = p                                                              (97)

Związki określające relacje (95-96) można opracowywać w formie modeli matematycznych, wzorców struktury materiału rdzenia, charakterystyk pod­stawowych WW, nomogramów, wykresów, instrukcji technologicznych, wzbo­gacając materiał źródłowy do ustalenia obszaru zdatności Wz w zależności od przyjętego poziomu niezawodności R(0) który jest utrzymany w przypadku:

R(0) = P ( yij Î Wz )                                                                                            (98)

Jeżeli wszystkie elementy yij macierzy AWz zawierają się w obszarze Wz to można też przyjąć, że niezawodność R(0) = 1.

W czasie eksploatacji obiektu, na skutek oddziaływania czynników wymu­szających wj(t), ulegają zmianie w sposób losowy cechy yij obszaru zdatności Wz elementu ukształtowane w procesie wytwarzania. Każda cecha jest odpowied­nim funkcjonałem o postaci:

ij(t) = f [ wj(t), yij, t ].                                                                                (99)

Zmianę zaś obszaru zdatności Wz(t) można traktować jako proces stochas­tyczny mogący być przedstawiony relacją:

Wz(t) = f [ wj(t), Wz, t ].                                                                                   (100)

W rozważanym okresie eksploatacji elementu, np. w czasie równym zasobo­wi ustalonemu Zu, kształtowana funkcja niezawodności powinna spełniać warunek:

R(t) ³ R(t)dop.,                                                                                                  (101)

gdzie R(t)dop jest obliczonym i ustalonym poziomem niezawodności elementu. Odpowiada mu również ustalony obszar zdatności Wz(t)dop. i wynikające z tego ograniczenie dla każdej cechy obszaru, tj.

ij(t) ³ y­ij(t)dop.                                                                                                (102)

W związku z tym warunek utrzymania poziomu niezawodności R(t)dop. będzie następujący:

R(t)dop. = P [y­ij(t) Î Wz(t)dop. ].                                                                        (103)

Z przedstawionych relacji wynika, że racjonalne ustalanie cech obszaru zdatności Wz elementów i całych systemów technicznych wymaga istnienia w zakładowym (branżowym) systemie jakości dwóch zintegrowanych ze sobą podsystemów kształtowania niezawodności obiektów, tj. podsystemu konstrukcyjno-eksploatacyjnego i podsystemu technologicznego.

W całej działalności badawczo-konstrukcyjnej podsystemu pierwszego waż­ną rolę odgrywają badania związków określonych relacją (99) usiłujące w coraz większym stopniu uwzględniać rzeczywistą probabilistyczną naturę procesu [1]. W badaniach tych niezawodne są informacje o zmianach stanów technicznych systemów i elementów zachodzących w ich eksploatowaniu, których metody opracowywania podano w [16] i w innych licznych pracach prezentowanych na konferencjach i sympozjach naukowych. Pomimo tego w dalszym ciągu istnieje skąpy przepływ informacji ze sfery eksploatacji. Stąd też wydaje się uzasadnione tworzenie podsystemu łączącego sferę badawczo-projektową i sferę eksploatacyjną.

Podstawowa rola podsystemu technologicznego w ustalaniu obszaru zdat­ności Wz obiektów technicznych to opracowywanie metod i sposobów urzeczy­wistniania wcześniej proponowanych cech Wz, poprzez stymulowanie prac w trzech zasadniczych kierunkach, tj. [1, 2]:

  • opracowywania nowych tworzyw konstrukcyjnych,
  • opracowywania szczegółowych zależności zgodnie z relacjami głównie (95) i (96),
  • prowadzenia całościowej działalności badawczej sterowania niezawod­nością obiektów metodami technologicznymi.

Stąd też podzielona przez wielu autorów opinia, jakoby zadaniem sfery wytwarzania było tylko bierne odtwarzanie na obrabianych elementach zada­nych przez projektantów cech Wz, wydaje się niewłaściwa.

Przedstawiony macierzowy zapis cech obszaru zdatności Wz należy trak­tować jako jedną z prób zwartego i przejrzystego zapisu warunków do ukształtowania niezawodności początkowej elementów i systemów technicz­nych stanowiących próbę uporządkowania dotychczas stosowanego, niespój­nego opisu zbioru cech obszaru Wz.

Ujednolicony zapis obszaru Wz może ściślej zintegrować wszystkie sfery związane z powstawaniem i istnieniem obiektów (zgodnie z pętlą jakości – rys. 7) w zakresie opracowywania racjonalnych metod sterowania ich niezawodnością, z wykorzystaniem techniki komputerowej, budowaniem bazy badawczej i banków doradczo-informacyjnych (systemów ekspertowych) [13].

Dyski twarde, budowa i zasada działania

Wstęp, cel i  zakres pracy

Pierwsze komputery jakie powstały miały służyć do obliczeń matematycznych i nie były o wiele bardziej skomplikowane od dzisiejszych kalkulatorów. Sytuacja ta uległa gwałtownej zmianie dzięki pamięciom masowym. Prawdopodobnie to zadecydowało o tym, że komputery zaczęto używać w innych dziedzinach życia, a nie tylko tak jak to było na początku do celów wojskowych.

Pierwsze pamięci masowe mało przypominały te znane nam w dzisiejszych czasach były to bowiem bardzo wolne i zawodne karty i taśmy perforowane opracowane przez firmę IBM w 1952r.

Trzeba było aż czterech lat aby nastąpił kolejny przełom i tak w 1956r. firma ta stworzyła napęd dyskowy IBM 350 RAMAC (Random Access Method for Accounting and Control). Miał on niewielką pojemność bo zaledwie 5 MB i składał się z 50 24-calowych dysków. Za to jednak umożliwiał szybki dostęp do danych bez konieczności przewijania taśmy tak jak to miało miejsce przedtem. Tym samym IBM 350 był zaczątkiem dzisiejszych pamięci masowych umożliwiając jednocześnie zastosowanie go w różnych dziedzinach życia.

Kolejnym problemem z jakim borykali się naukowcy była możliwość zewnętrznego składowania danych, a nie jak w przypadku IBM 350 który był jedynie rozszerzeniem pamięci operacyjnej. Rozwiązanie problemu nastąpiło w roku 1962.

Od tej pory wymienne dyski dawały już możliwość zewnętrznego składowania danych bez ograniczeń pojemności.

Dzisiaj sięgając tamtych czasów trudno sobie wyobrazić komputer bez stacji dyskietek, wymiennych dysków o dużych pojemnościach.

Na początku najpopularniejszą pamięcią masową był magnetofon kasetowy, zaś dyski wymienne (dyskietki) początkowo 5,25 cala i pojemności 160-180 kB były wielkim rarytasem.

W ten sposób z biegiem czasu stacja dyskietek stała się nieodzownym elementem komputera. W początkowym okresie pojemność 360 kB lub1,2 MB dyskietek pięciocalowych a potem 720 KB i 1,44 MB dyskietek trzyipółcalowych była w zupełności wystarczająca.

Poza tym początkowe parametry ówczesnych komputerów takie jak 1 MB pamięci RAM oraz 5-20 MB dysku twardego i mała moc przetwarzania procesorów nie pozwalały na pracę z większymi ilościami danych. Sytuacja ta jednak musiała ulec zmianie gdyż potrzeby i wymagania użytkowników wciąż rosły, a komputery zaczęto używać do coraz to poważniejszych zadań (np. elektroniczne tworzenie publikacji). W ten oto sposób najpierw używano ich do składania tekstów i tworzenia prostej grafiki, aż do momentu umieszczania na nich już nie czarno-białych, a kolorowych zdjęć. Pliki tworzonych podczas skanowania zdjęć tak gwałtownie wzrosły z chwilą wprowadzenia koloru, że pojemność pamięci dysków miały ogromne znaczenie. Jak wielkie wymagania spoczywają  na producentach pamięci masowych możemy bardzo łatwo zaobserwować po ich nowych produktach, których parametry wciąż są podnoszone, a jakość udoskonalana.

Problem przenoszenia danych istniał od momentu powstania komputerów. Wraz z ich szybkim rozwojem , rozwijały się równie szybko wszystkie dziedziny pokrewne. Także wielkość pojemności pamięci masowych rosła wraz z rosnącym zapotrzebowaniem. Wszelkiego rodzaju placówki naukowe, banki, urzędy i inne instytucje musiały i muszą przechowywać olbrzymie ilości informacji, a każdy kolejny rok przynosi im coraz więcej problemów w tym względzie. Głównymi wadami tradycyjnych sposobów archiwizowania danych (papier, mikrofilm, taśma magnetyczna, itd.) są:

  • długi czas potrzebny do odszukania potrzebnych informacji,
  • niska trwałość nośników i ich wrażliwość na różne „przeciwności losu”
  • oraz wysoki koszt magazynowania danych,

Ogólnie można powiedzieć, że obecnie mamy dwie, uzupełniające się „szkoły” nowoczesnego gromadzenia i redystrybucji danych w formie elektronicznej. Pierwsza z nich – klasyczna opiera się na tym, że treść wszystkich interesujących nas dokumentów zostaje najpierw przetworzona i zapisana w formacie np. plików tekstowych, arkuszy kalkulacyjnych, itd., a następnie jest indeksowana za pomocą specjalnie do tego celu opracowanych narzędzi. Tak przygotowana postać elektroniczna jest następnie składowana na nośniku trwałym. Opisana metoda jest mało przydatna, gdy zarchiwizowany dokument będzie musiał być kiedyś odtworzony w swej pierwotnej formie. Opracowano więc drugą metodę, zgodnie z którą przechowywane są nie treść lecz obrazy dokumentów. Systemy tego typu noszą nazwę imagingu, a do segregowania i odszukiwania określonych informacji służą w nich bazy danych, w których za pomocą słów kluczowych opisuje się zawartość obrazów dokumentów.

Wszystkie te dokumenty, czy to skanowane czy też trzymane wcześniej w formie elektronicznej trzeba gdzieś trzymać na osobnym miejscu aby w razie awarii istniała możliwość ich odtworzenia. Początkowe archiwizowanie odbywało się na dyskietkach. Pierwsze dyskietki, nazywane wówczas dyskami elastycznymi, miały średnicę 8 cali i 128 KB pojemności. Postęp technologiczny i rosnące wymagania użytkowników sprawiły, że średnica dyskietki z czasem zmniejszyła się do 3,5 cala, a jej pojemność wzrosła do 1,44 MB. Dalszy wzrost pojemności okazał się zbyt trudny i zbyt kosztowny – dyskietki 3,5″, 2,88 MB nie przyjęły się. Jednak ten kilkunastokrotny wzrost pojemności dyskietki nie wystarczył – przebiegająca równolegle ewolucja zastosowań komputerów oraz nowe technologie produkcji oprogramowania sprawiły, że zarówno same programy, jak i użytkowane przez nie dane przybrały objętości, wobec których dyskietka zaczęła stawać się nośnikiem coraz mniej wygodnym i coraz mniej użytecznym. Próby stworzenia taniego nośnika wymiennego o większej pojemności trwały już od wielu lat, ale przez stosunkowo długi okres nie przynosiły one żadnych rozwiązań, które zyskałyby trwałą, powszechną popularność, choć niektóre z nich zrobiły krótkotrwałe kariery.

Pierwszym takim rozwiązaniem był Bernoulli disc firmy Iomega – 10 MB danych można było zapisać na 5,25-calowym krążku magnetycznym, zamkniętym w plastykowym pudełku. Mimo dużej, jak na owe czasy, pojemności i stosunkowo niskiej ceny, rozwiązanie nie przyjęło się szerzej, może zresztą dlatego, że powstało jeszcze w czasach, gdy standardem była dyskietka 5,25″ o pojemności 360 KB i nieco później 1,2 MB, a przeciętna wersja instalacyjna dużego programu nie zawierała więcej niż 5 dyskietek.

Głównym celem, przyświecającym podczas pisania tej pracy była chęć przybliżenia historii, budowy i zasady działania pamięci masowych jakimi są dyski twarde.

W rozdziale pierwszym uwzględniono takie aspekty jak historia dysku twardego, jego budowa fizyczna i logiczna, parametry (pojemność, szybkość, jakość, wydajność) oraz  jego organizacja. W kolejnym rozdziale [niniejszej pracy magisterskiej] omówiono zasadę działania dysku twardego, a następnie jego instalację i konfigurację.  Rozdział piąty dotyczy interfejsów komunikacyjnych. Najpierw opisany jest pierwszy interfejs komunikacyjny czyli ST-506/412, a następnie IDE/ATA oraz SCSI. Następny poświęcony jest użytkowaniu i zasadom postępowania z dyskami twardymi, gdzie zawarto takie zagadnienia jak deinstalacja, defragmentacja, skanowanie oraz porządkowanie dysku. Ostatni rozdział siódmy poświęcony jest pamięciom masowym w przyszłości, czyli wszystko o tym czego możemy spodziewać się na rynku w najbliższym czasie, nowe technologie oraz rozwiązania w tej dziedzinie.

Znaczenie informacji eksploatacyjnej w fazie projektowania obiektu

Wykorzystanie danych eksploatacyjnych na etapie projektowania jest warunkiem koniecznym prawidłowej realizacji tego procesu. Wśród kryteriów optymalizacji w projektowaniu, powinny być bowiem stosowane, równorzędnie z innymi, kryteria eksploatacyjne. Kryteria te występować mogą w postaci różnego rodzaju wskaźników, których podstawą szacowania jest prognozowanie oczekiwanych wartości parametrów obiektu, w oparciu o pełną informację eksploatacyjną. W wielu pracach jako nadrzędne kryterium eksploatacyjne w projektowaniu, przyjmowana jest niezawodność obiektów złożonych. Przyjęcie tego założenia jest uzasadnione tym, że „… niezawodność jest własnością uwarunkowaną logicznymi powiązaniami między wielkościami fizycznymi ….. całego układu mechanicznego: czynnikami wymuszającymi zewnętrznymi i wewnętrznymi, otoczeniem,  środowiskiem i obciążeniami” [22].

Omówienie szeregu problemów, związanych z zapewnieniem wymaganej niezawodności na etapie projektowania zawieraja m.in. praca [27].Najistotniejszym warunkiem zapewnienia wysokiego poziomu niezawodności obiektu na etapie projektowania jest posiadanie informacji o zachowaniu się podobnych obiektów na etapie eksploatacji [27] .Bardziej szczegółowe omówienie problemu wzajemnych relacji pomiędzy projektowaniem a eksploatacją, przedstawione jest w publikacji [10]. Zaproponowany w [10] zapis graficzny zwrotnych sprzężeń informacyjnych pomiędzy omawianymi procesami przedstawiono na rys 1.3 [17]. Jako bazę przeprowadzonych w [10] rozważań przyjęto metodę projektowania „Lemach 2” [17] z uwagi na jej duży stopień ogólności. Metoda ta stanowi sekwencyjno-iteracyjny układ czynności projektowo-konstrukcyjnych, w którym wyróżnić można 5 etapów zawierających 27 działań oraz 55 kroków roboczych.

Etapy projektowania oznaczono cyframi rzymskimi, zaś spośród kroków roboczych wyodrębniono na rys.3.2. te, które stanowią ogniwa sprzężeń pomiędzy projektowaniem i eksploatacją obiektu. Kroki robocze przedstawione są jako punkty w „układzie współrzędnych”: etap projektowania – funkcja projektowa. Skierowane linie łamane ciągłe obrazują kierunek i zwrot sprzężeń zewnętrznych pomiędzy blokami projektowania i eksploatacji. Linie przerywane przedstawiają sprzężenia „wewnątrzprojektowe”, implikowane przez sprzężenia zewnętrzne. Zaproponowany zapis graficzny daje informację na jakim etapie projektu i w jakim celu (funkcja projektowa), wykorzystywane są informacje eksploatacyjne, a także w których etapach projektowania powstają ustalenia odnośnie eksploatacji obiektu. Należy zwrócić uwagę na fakt, że informacje eksploatacyjne tej samej grupy (np. wskaźniki niezawodności, trwałości) mogą być wykorzystywane kilkakrotnie w celu korygowania projektu na poszczególnych jego etapach.

Podsumowanie pracy magisterskiej

Dzisiaj podsumowanie pracy magisterskiej o zaporach ogniowych. Miłego czytania!

Podstawowa zasada działania wszelkich systemów ochronnych jest: „To co nie jest jawnie dozwolone – jest zakazane”. Firewalle (zapory ogniowe) są instalowane miedzy sieciami w celu wymuszenia kontroli dostępu miedzy nimi. Generalnie rzecz ujmując, firewalle zabezpieczają przed nieautoryzowanym dostępem z zewnątrz do sieci lokalnej. Niektóre nawet mogą całkowicie blokować ruch pakietów z zewnątrz – dopuszczając ewentualnie pakiety poczty elektronicznej – zezwalając jednakże na swobodne komunikowanie się użytkowników sieci ze światem zewnętrznym

Na rynku dostępnych jest wiele produktów sprzedawanych pod nazwa „Firewall”, lecz różnią się one poziomem oferowanych zabezpieczeń i przede wszystkim jakością. Przy zakupie lub budowie systemu zabezpieczeń trzeba wiedzieć przede wszystkim co zamierzamy chronić. Ochrona polega na trudnych wyborach między bezpieczeństwem z jednej strony, a użytecznością i kosztami z drugiej. Bezpieczeństwo jest odwrotnie proporcjonalne do użyteczności i kosztów. Im bezpieczniejszy system, tym jest trudniejszy w obsłudze i więcej w nim ograniczeń. Odpowiednio wzrastają również koszty administracji i konserwacji. Aby skutecznie balansować między bezpieczeństwem a przydatnością, trzeba dokładnie określić przedmiot podlegający ochronie.

Na przykład, jeśli ustawiamy serwer Web Centralnej Agencji Wywiadowczej, który będzie podłączony do sieci wewnętrznej agencji, to bezpieczeństwo jest problemem najwyższej wagi. Konfigurowany przez nas system może być furtką dla osób próbujących zagrozić bezpieczeństwu narodowemu USA. Z drugiej strony zaawansowana ochrona serwera Web małej firmy, sprzedającej pluszowe niedźwiadki może się po prostu nie opłacać. Jedna rzecz jest bezdyskusyjna – obydwa z tych serwerów powinny być chronione  – kwestią drugorzędna w jaki sposób ochrona ma być zaprojektowana. Duże korporacje mogą pozwolić sobie na projektowanie i wdrożenie drogich systemów dla małych firm i instytucji pozostają darmowe systemy typu Linux i oprogramowanie typu freeware i shareware.

Przy wyborze i projektowaniu zapór sieciowych stare przysłowie branżowe nie traci nic z aktualności: „Cena zabezpieczeń nie może przekraczać kosztów związanych z usunięciem szkód, jeśli zagrożenie się urzeczywistni”.

Modelowanie systemów informacji

CEL I ZAKRES PRACY. UZASADNIENIE PODJĘCIA TEMATU

Celem pracy jest przedstawienie metodyki modelowania systemu informacji eksploatacyjnej, dla obiektów reprezentujących specyficzną klasę, urządzeń pracujących w cyklach okresowo-ciągłych, z zamiarem podkreślenia znaczenia funkcjonowania takiego systemu dla zminimalizowania strat ekonomicznych spowodowanych przestojami w produkcji. Modelowanie SIE jest przedstawione na przykładzie pomp wirowych pracujących w cukrowniach. Charakterystyczne dla obiektów tego typu są długie zdeterminowane cykle remontowe oraz gotowość do pracy w sezonie i wymagany resurs użytkowy. Każda przerwa w pracy spowodowana awariami pociąga za sobą duże straty wynikające m.in. z niewykonania określonych zadań produkcyjnych w terminie oraz ze strat surowcowych.

Punktem wyjścia do rozważań w niniejszej pracy jest rola informacji eksploatacyjnej na etapach projektowania, wytwarzania i eksploatacji. Pokazana jest konieczność istnienia sprzężeń informacyjnych dla prawidłowości przebiegu tych procesów, a także rola informacji eksploatacyjnej dla kosztów eksploatacyjnych.

W dalszej części omówione są teoretyczne podstawy modelowania SIE, przedstawiona jest struktura eksploatyki jako nauki pozwalającej sformalizować rzeczywistość eksploatacyjną i opisać ją matematycznie posługując się w tym celu „wypróbowaną metodą nauk abstrakcyjnych”, metodą modelowania. Dalsze rozważania dotyczą podejścia systemowego do modelowania SIE a wynikiem ich jest przyjęcie jako zasadniczego etapu modelowania, dokładnego zamodelowania badanego fragmentu rzeczywistości eksploatacyjnej poprzez stworzenie dwóch modeli: badawczego (model poznawczy, model ocenowy, model decyzyjny) i pragmatycznego.

Część dotycząca matematycznego modelowania decyzyjnego przedstawia sposób budowania matematycznego modelu decyzyjnego poprzez opis identyfikacyjny i formalny rzeczywistości eksploatacyjnej aż do stworzenia opisu w języku matematyki poszczególnych elementów modelu.

Następnie przedstawiona jest procedura modelowania SIE dla pomp wirowych, pracujących w cukrowniach, stanowiących przykład obiektów pracujących w cyklach okresowo- ciągłych. Opisany jest proces identyfikacji poznawczej przedmiotu badań i wskaźniki wykorzystywane na etapie modelowania ocenowego, sformułowane jest kryterium decyzyjne i przedstawiony jest model decyzyjny sterowania eksploatacją.

W rozdziale siódmym przedstawione są możliwości wykorzystania nowoczesnych metod reprezentacji wiedzy eksploatacyjnej poprzez zastosowanie systemów ekspertowych w eksploatacji maszyn.

W zakończeniu pracy sformułowano wnioski, wynikające z przedstawionych rozważań i opracowanego modelu systemu informacji eksploatacyjnej dla obiektów pracujących w cyklach okresowo-ciągłych.

Uzasadnienie podjęcia tematu stanowi rozdział 3 niniejszej pracy, w którym omówiono znaczenie systemów informacji eksploatacyjnej (SIE) dla prawidłowej realizacji wszystkich etapów „życia” obiektu technicznego.

System racjonalnego oddziaływania na niezawodność obiektu w fazie jego projektowania

Jak już wspominano w rozdz. 2. do działań wchodzących w skład systemu racjonalnego oddziaływania na niezawodność obiektu w fazie jego projektowania należy zaliczyć:

  1. budowę niezawodnościowego modelu obiektu
  2. budowanie niezawodności głównie teoretyczne przeprowadzone na zbudowanym modelu
  3. typowanie najkorzystniejszych rodzajów ulepszeń

Zasady i sposoby realizacji działań a) i b) omówiono szczegółowo w rozdziałach 3, 4 i 5 niniejszej pracy.

Trzecim z podstawowych działań proponowanego systemu ra­cjonalnego oddziaływania na niezawodność (i bezpieczeństwo) obiektu jest typowanie najkorzystniejszych rodzajów ulepszeń. Podstawą do takich działań konstruktora są wyniki badań nie­zawodności (i bezpieczeństwa), na przykład w postaci wykresów zależności wybranego wskaźnika niezawodności od różnych czyn­ników projektowych, technologicznych i eksploatacyjnych. Ulepszenia polegają głównie na odpowiednich zmianach wartości tych czynników.

W ogólnym przypadku wybór czynnika, którego wartość powin­na ulec zmianie, nie powinien być jednak oparty na kryterium niezawodności, gdyż zmiana ta może wywołać nie tylko podwyż­szenie poziomu niezawodności, lecz również jednoczesne pogor­szenie innych cech obiektu, np. bezpieczeństwa, ciężaru, kosz­tu wykonania, kosztu eksploatacji itd. O wyborze takim powinno więc decydować globalne kryterium oceny obiektu, uwzględniają­ce najważniejsze jego cechy. Jest nią tzw. funkcja do­broci, uwzględniająca różne istotne cechy obiektu, różne ich ważności, a także losową zależność niektórych cech od czasu. Dla czasu  t  wynosi ona:

(104)

gdzie: Xk(t) jest k-tą cechą świadczącą o dobroci obiektu (ciężar, koszt wykonania  Cw,  straty wywołane zawodnością C(t),  inne koszty eksploatacyjne  C (t),  zagrożenie [1-B(t)] itd.;  wk(t)  jest wagą k-tej cechy;  xk*(t)  jest górną warto­ścią graniczną k-tej cechy  (większą od zera), której przekro­czenie jest niedopuszczalne lub niepożądane;  l  jest liczbą. istotnych cech obiektu;  J(t)  jest wartością zadania wykony­wanego przy użyciu obiektu.

Niektóre sposoby ustalania wartości xk*  oraz  wk  są przedstawione w pracy [25]. Ustalanie wartości xk*  polega na odpowiednim wyborze tych wartości z zakresu występowania wartości cech  Xk  obiektów podobnych (do rozpatrywanego) eks­ploatowanych w podobnych warunkach w jednakowym czasie. Na podstawie umowy oraz pewnych ograniczeń technicznych i nie­technicznych za wartość xk* przyjmuje się największą obserwo­waną wartość cechy  Xk,  jej wartość średnią lub inną, w za­leżności między innymi od prowadzonej polityki w zakresie po­stępu technicznego.

Najważniejszą czynnością przy ustalaniu wartości współczyn­ników ważności  wk  (wg sposobu podanego w [25]) jest upo­rządkowanie przez zespół ekspertów zbioru obiektów podobnych (do rozpatrywanego) eksploatowanych w podobnych warunkach w jednakowym czasie według na przykład rosnącej dobroci oraz przypisanie im odpowiednich wartości funkcji dobroci. Jest to podstawą do ułożenia odpowiedniego układu równań (104), z któ­rego wyznacza się następnie wartości wk.  Taka metoda polega­jąca na ustaleniu porządku preferencji jest stosowana między innymi w teorii użyteczności.

W wymienionych pracach przyjmuje się za funkcję kryterium, służącą do oceny dobroci, albo wartość oczekiwaną  EY funkcji dobroci, albo ryzyko a przekroczenia przez tę funkcję pewnej wartości granicznej (lub przyjętego poziomu odniesienia) y*. Jeśli więc funkcją kryterium, służącą do oceny jest na przy­kład EY (dla określonego czasu eksploatacji), to zmiany war­tości czynnika projektowego, technologicznego lub eksploa­tacyjnego w celu poprawy niezawodności mają  sens, gdy

D(EY) = (EY)2 – (EY)1 < 0                                                                          (105)

gdzie indeks „1” oznacza obiekt przed zmianą, a indeks „2” oznacza obiekt po zmianie. Warunkiem decydującym o wyborze ro­dzaju czynnika do zmiany w pierwszej kolejności jest w tym przypadku warunek

(106)

gdzie

(107)

Indeks „2” oznacza obiekt po zmianach wartości czynnika g, przy czym g należy do zbioru  G  rozpatrywanych czynników, dla których spełnione są warunki (105).

Metoda kolejnych zmian wartości wspomnianych czynników konstrukcyjnych, technologicznych i eksploatacyjnych (np. zgodnie z warunkiem (106) w kolejności wzrastania D(EY) może być metodą optymalizacji rozwiązania technicznego obiektu o przyjętym schemacie projektowym. Za jej pomocą możliwe jest na przykład wyznaczenie optymalnego rozkładu poziomów nieza­wodności na poszczególne PK obiektu. W tym celu zmiany pozio­mów niezawodności poszczególnych PK przez zmiany wartości czynników ze zbioru G należy przeprowadzać dotąd, aż speł­nione zostaną w przybliżeniu warunki

(108)

tzn. dotąd, aż zmiany wybranego czynnika nie przestaną popra­wiać wartości oczekiwanej funkcji dobroci. To zagadnienie syn­tezy niezawodnościowej obiektu jest przedstawiane nieco ob­szerniej w pracach [25].

Wybór najkorzystniejszego rodzaju ulepszenia, odbywający się przy wykorzystaniu warunków (105) i (106), wymaga znajo­mości matematycznej postaci kryterium, np. wartości oczekiwa­nej funkcji dobroci (104). W wielu przypadkach o dobroci obiektu decydują tylko względy ekonomiczne, a wartość wykony­wanego zadania  J(t)  nie zmienia się przy zmianie wspomnia­nych czynników projektowych, technologicznych i eksploatacyjnych. Łatwo uzasadnić , że wówczas funkcja dobroci w postaci (104) może być zastąpiona funkcją

Y(t) = Cw + Ce(t) + C(t).                                                                                (109)

Jeśli o dobroci obiektu decydują nie tylko względy ekono­miczne, to należy korzystać z postaci (104) funkcji dobroci. Jednakże może być to niewygodne z powodu trudności w określe­niu współczynników ważności  wk(t).  Proponuje się, aby wów­czas przy wyborze rodzaju ulepszenia korzystać z funkcji

(110)

gdzie bezpieczeństwo Bb(t). Jeśli zamierzone ulepszenia obiektu nie zmieniają wartości wielkości  Bb(t),  to w przypadku wspomnianych trud­ności proponuje się korzystać zamiast z postaci (110) funkcji dobroci – z postaci

(111)

lub z postaci (109).

Algorytm tych podstawowych działań proponowanego systemu jest  przedstawiony poglądowo na rys. 8. Na rysunku tym zazna­czone są również ważniejsze sprzężenia w przepływie informacji między tym systemem i różnymi etapami fazy projektowania oraz fazami wytwarzania i eksploatacji. Między innymi wskazane są te etapy fazy projektowania, w których możliwe są racjonalne działania na rzecz niezawodności i bezpieczeństwa obiektu za pomocą systemu przedstawionego w niniejszym opracowaniu.

Wpływanie na poziom niezawodności projektowanego obiektu możliwe jest już we wcześniejszym etapie fazy projektowania, mianowicie w etapie tworzenia i wyboru projektu koncepcyjnego, ale jedynie w sposób jakościowy. Oddziaływanie na poziom nie­zawodności w tym etapie może być realizowane przez wybór ta­kiej koncepcji, w której przewiduje się:

  • małą liczbę elementów, a właściwie – fragmentów obiektu szczególnie narażonych na niesprawności;
  • małą liczbę takich fragmentów obiektu, w których szyb­kość przebiegu zjawisk fizycznych prowadzących do niesprawno­ści może być duża;
  • małą liczbę takich fragmentów obiektu, których niespraw­ności stanowią duże zagrożenie dla ludzi i dla obiektu;
  • racjonalne zastosowanie zabezpieczeń, ograniczników i wskaźników;
  • łatwą wymianę elementów (profilaktyczną i poawaryjną);
  • łatwy sposób diagnozowania;
  • modułową konstrukcję niektórych fragmentów obiektu, a nawet całego obiektu;
  • małą wrażliwość na błędy wykonania i na błędy eksploata­cji itd.

Jak już wspomniano w rozdz. 4, racjonalne oddziaływanie na niezawodność i bezpieczeństwo obiektu, oddziaływanie z za­mierzonym i wymiernym efektem, możliwe jest jednak dopiero po wykonaniu projektu wstępnego i zbudowaniu na podstawie tego projektu niezawodnościowego modelu obiektu.

Następnym etapem fazy projektowania, w którym można od­działywać na tworzony obiekt za pomocą proponowanego systemu jest etap tworzenia projektu technicznego (rys.8). Bywa tak, że ten etap wymusza pewne zmiany w rozwiązaniu projektowym obiektu. Jeśli zmiany te mogą być istotne z punktu widzenia niezawodności, to konieczne jest uwzględnienie ich w modelu niezawodnościowym i zbadanie ich wpływu na poziom niezawodno­ści projektowanego obiektu.

Zaproponowany system może też być wykorzystany do oddzia­ływania na niezawodność (i bezpieczeństwo) obiektu w pozosta­łych etapach fazy projektowania oraz w fazach wytwarzania  i eksploatacji (rys.8). W tym przypadku wyniki teoretycznych badań niezawodności mogą służyć do potwierdzania i uzupełnia­nia wyników eksperymentalnych badań prototypów i serii infor­macyjnej oraz wyników eksploatacyjnych badań produkowanych obiektów.

Rys.8. Racjonalne oddziaływanie  na niezawodność obiektu w fazie jego projektowania

Celem prowadzenia takich badań jest doskonalenie obiektu w kolejnych etapach i fazach jego tworzenia i istnie­nia przez: wykrywanie słabych ogniw, wyjaśnianie przyczyn nie­sprawności, wskazywanie najbardziej efektywnych sposobów do­skonalenia rozwiązania konstrukcyjnego obiektu itd.