Author Archives: informatyk

Macierzowe modelowanie niezawodności początkowej elementów maszyn

Poziom niezawodności początkowej (technicznej) każdego elementu jest  modelowany głownie w sferze projektowania za pomocą zbioru cech  związanych z dokładnością   wymiarowo – kształtową Dwk,  materiałem Wm, stanem warstwy wierzchniej ( W W ) Sww oraz podzbiorem cech modelowanych  w montażu Me. Zbiór ten powinien być ustalony w ten sposób, żeby , ukształtowany poziom niezawodności początkowej zagwarantował następnie określony przebieg funkcji niezawodności elementu w czasie jego istnienia i (życia).

Funkcja niezawodności powinna być kształtowana w zakładowej czy też branżowej strukturze systemu jakości określonego ogólnie grupą norm ISO 9000 [7, 14] obejmującym wszystkie istotne etapy związane z pow­stawaniem i istnieniem elementu, co można przedstawić pętlą jakości (rys. 7). Pomimo że wymienione normy traktują niezawodność jako jedną z cech jakości, to jednak należy pamiętać, iż cecha ta decydująco stanowi o bezpieczeństwie obiektów mechanicznych, ich kosztach eksploatacji oraz jest w dalszym ciągu głównym przekonującym argumentem w ekspansji  na światowym rynku.

O ważności właściwego kształtowania niezawodności elementów maszyn w aspekcie ich jakości świadczą najlepiej opracowane metody prognozowania trwałości elementów z wykorzystaniem techniki komputerowej [24], wspomagające projektowanie obiektów. W podobnym zamiarze czynione są przedsięwzięcia w sferze wytwarzania, szczególnie w zakresie doboru wariantów i struktury procesy, warunków obróbki, kontroli procesu [1, 2] nawet monitorowania tzw. „procesów specjalnych „.

Uwzględnianie dużej liczby aspektów ekonomicznych i fizycz­nych w badaniach, w ujęciu systemowym, wymaga przede wszystkim opisywanie obszaru zdatności  Wz

w formie zwartej, a jednocześnie przejrzystej, wygodnej do zaprogramowania komputerowego [27]. Uwarunkowania te powinny ułatwić bieżącą weryfikację właściwości poszczególnych cech przy sterowaniu niezawo­dnością R(0) elementów. Biorąc to pod uwagę autor proponuje opisanie obszaru Wz za pomocą macierzy [2, 27]

AWz = [a]ij                                                                                                     (101)

gdzie : i –  liczba kolumn macierzy zawierająca cechy,

j – liczba wierszy macierzy zawierająca obszary zdatności podzbiorów

cech Dwk, Wm, Sww, Me.

W oparciu o dotychczasowy stan wiedzy i własne doświadczenia z zakresu omawianego zagadnienia [2] autor przedstawia propozycję opisania obszaru zdatności w odniesieniu szczególnie do elementów stanowiących tzw. „słabe ogniwa” w strukturze niezawodnościowej systemu technicznego.

Podzbiór cech wymiarowo-kształtowych (konstrukcyjnych) Dwk powinien zawierać następujące cechy o właściwościach granicznych:

– wymiary liniowe wielkości i kształtu   ( Bai, Aai ), ( i = 1,…, n ),

– wymiary kątowe wielkości i kształtu    ( Baj, Aaj ), ( j = 1,…, m ),

  • wymiary liniowe charakteryzujące wza­jemne położenie powierzchni elementu

( Bapk, Aapk), ( k = 1,…, K )

  • wymiary kątowe charakteryzujące wzajemne położenie powierzchni elementu

( Bapl, Aapl), ( l = 1,…, L )

cechy (opisowe) charakteryzujące spo­sób łączenia sąsiednich powierzchni (tzw. powierzchnie przejściowe)   ( Codr, Corg ), ( r = 1,…, R ),

  • dodatkowe cechy (opisowe) związane ze specyfiką rozpatrywanego elementu

(Csdv, Csyg ), ( v = 1,…, V ).

Właściwości graniczne tych cech wyznaczają podobszar zdatności elementu Wwk Ì Wz obrazowany za pomocą tolerancji, który może być przedstawiony wektorem:

Wwk = [ Tai, Taj, Tapk, Tapl, TCor, TCsv ]                                                     (83)

lub też macierzą właściwości granicznych cech:

(84)

Drugim ważnym podzbiorem jest podzbiór charakteryzujący właściwości materiału (tworzywa) elementu Wm na który składają się [2]:

– struktura materiału (mikrostruktura) S,

– parametry mechaniczne M,

– cechy uzupełniające X stanowiące parametry fizyczno-chemiczne, nie

uwzględnione w dwóch poprzednich grupach. W szczególności będą to cechy obejmujące:

– rodzaj fazy                                                      CFi, ( i = l,…, n ),

– objętość względną fazy                                  ( CFvd, CFvg ),

– rozmieszczenie faz                                          ( CFRd, CFRg ),

– rozmieszczenie składników faz                      ( CFsd, CFsg ),

– rozmiar ziarna                                                 ( Czd, Czg ),

– rozmieszczenie ziaren                                     ( Czrd, Czrg),

– granice krawędzi ziaren                                  ( Czkd, Czkg )

– teksturę ziaren (strefę ukierunkowania)          ( CTzd, CTzg ),

– teksturę krystaliczną                                        ( CTkd, CTkg ),

– rodzaj defektów struktury                               ( Cdj, ( j = 1,…, m )),

– gęstość defektów struktury                             ( Cdgd, Cdgg ),

– okresowość struktury                                      ( Cfsd, Cfsg ),

– twardość                                                          ( HM(d), HMg ),

– granicę plastyczności                                      ( Re(d), Reg ),

– wytrzymałość na rozciąganie                          ( Rm(d), Rmg ),

– udarność                                                          ( Ud, Ug ),

– moduł Younga                                                  ( Ed, Eg ),

– naprężenie własne (makronaprężenia)            ( sM(d), sMg ),

– wytrzymałość na pełzanie                               ( RzT/t(d), RzT/tg ),

– granicę pełzania                                               ( Rx/T/t(d), Rx/T/tg ),

– cechy uzupełniające                                         ( XMld, XMlg ), ( l = 1,…, L ),

Podobszar zdatności łopatki Wm Ì Wz warunkowany podzbiorem Wm wy­znacza następujący wektor:

Wm = [ TCFi, TCFv, TCFR, TCFs, TCz, TCzr, TCzk, TCTz, TCTk, TCDj, TCdg, TCfs, THM, TRe, TRm, TU, TE, TsM, TRz/T/t, TRx/T/t, TXML ]                                 (85)

lub macierz wartości granicznych cech:

(86)

Z kolei podzbiór cech określających stan i właściwości użytkowe WW elementu obejmuje [2]:

– charakterystykę struktury geometrycznej powierzchni SGww,

– charakterystykę struktury fizyczno-chemicznej stref WW SFww. Zalecane podzbiory cech charakterystyki struktury geometrycznej powierz­chni ujęte są w licznych normach krajowych i zagranicznych, jak np. PN-74/M-04255, PN-87/M-04251 oraz PN-87/M-04256/01 i 02. Propozycję z tego zakresu przedstawiono również w [1, 2]. Biorąc pod uwagę całokształt wymagań niezawodnościowych rozważanych elementów, w ich charakterystyce struktury geometrycznej proponuje się uwzględnienie:

– wysokości falistości powierzchni                            ( Wz(d), Wzg ),

– średniego odstępu falistości                                    ( Sw(d), Swg ),

– największej wysokości falistości                             ( Wmax(d), Wmaxg ),

– średniego arytmetycznego odchylenia profilu         ( Ra(d), Rag ),

– wysokości chropowatości według 10 punktów       ( Rz(d), Rzg ),

– maksymalnej wysokości chropowatości                 ( Rmax(d), Rmaxg ),

– średniego odstępu chropowatości                           ( Sm(d), Smg ),

– średniego odstępu miejscowych wzniesień

profilu chropowatości                                                 ( Sd, Sg ),

– kierunkowości struktury powierzchni                     (ChTd, ChTg ),

– wskaźnika anizotropii                                              (ad, ag ),

– parametru stereometrii powierzchni                        ( ChVd, ChVg ),

– wady struktury geometrycznej powierzchni             ( PAd, PAg ),

Podzbiór ten tworzy podobszar zdatności WSG Ì Www który można przed­stawić wektorem:

 

WSG = [ TWz, TSw, TWmax, TRa, TRz, TRmax, TSm, TS, TChT, Ta, TChV, TPA ]

(87)

lub macierzą właściwości granicznych cech:

(88)

Podzbiór cech charakteryzujących strukturę fizyczno-chemiczną stref WW, zgodnie z PN-87/M-04250 i zaleceniami podanymi w [2], powinien zawierać:

– rodzaj fazy                                                WFi, ( i = 1,…, n ),

– objętość względną fazy                            ( WFvd, WFvg ),

– rozmieszczenie faz                                   ( WFRd, WFRg ),

– rozmieszczenie składników faz                ( WFsd, WFsg ),

– wymiar ziarna                                           ( Wzd, Wzg ),

– rozmieszczenie ziarn                                ( Wzrd, Wzrg ),

– granice krawędzi ziarn                              ( Wzkd, Wzkg ),

– teksturę ziarn (strefę ukierunkowania)     ( WTzd, WTzg ),

– teksturę krystaliczną                                  ( WTkd, WTkg ),

rodzaj defektów struktury                          Wdj, ( j = 1,…, m ),

– gęstość defektów struktury                        ( Wdgd, Wdgg ),

– okresowość struktury                                 ( Wfsd, Wfsg ),

– twardość                                                     ( Hw(d), Hwg ),

– mikrotwardość                                            ( Hmk(d), Hmkg ),

– mezotwardość                                             ( Hmz(d), Hmzg ),

– naprężenia własne                                       ( sw(d), swg ),

– cechy uzupełniające                                    ( Xwl(d), Xwlg ), ( l = 1,…, ł )

Wektor podobszaru zdatności WSF Ì Www przyjmuje postać:

WSF = [TWFi, TWFv, TWFR, TWFs, TWz, TWzr, Twzk, TWTz, TWTk, TWdj, TWdg,  TWfs, THw, THmk, THmz, Tsw, TXwl, ],                                                     (89)

a macierz:

(90)

Do podzbioru właściwości użytkowych ww można zaliczyć:

– wytrzymałość statyczną elementu           ( ss(d), ssg ),

– wytrzymałość zmęczeniową elementu    ( Z­d, Zg ),

– odporność na zużycie korozyjne             ( Z­k(d), Zkg ),

– odporność na zużycie erozyjne               ( Z­e(d), Zeg ),

– żarowytrzymalość                                   ( R’zT/t(d), R’zT/tg ),

– odporność na pękanie                              ( Kcd, Kcg ),

cechy uzupełniające                                ( Cuid, Cuig ), ( i = 1,…, n )

 

Przedstawiony podzbiór tworzy podobszar zdatności Wu Ì Www przedstawio­ny wektorem:

Wu = [ Tss, TZ, TZk, TZe, TRz/T/t, TKc, TCui ]                                                 (91)

(92)

Ważnym, mało docenianym podzbiorem cech jest podzbiór charaktery­zujący właściwości zamontowanego elementu w zespole czy całym systemie. Mogą to być:

– cechy sprawnościowe (wydajnościowe) systemu -ustalone podzbiorami Dwk i Sww elementu (CMSid, CMSig ), ( i = 1,…, n ),

– cechy związane z wyrównoważeniem elementów

(CMWjd, CMWjg ), ( j = 1,…, m ),

– cechy rozrzutu częstotliwości własnej kompletu elementów w systemie

(CMFld CMflg ), ( l = 1,…,L ),

– cechy zapewniające niski poziom głośności ( CMGkd, CMGkg ), ( k = 1,…, K ),

– cechy uzupełniające (CMXod, CMXog ), ( o = l,…, O ).

Zbiór wymienionych cech tworzy podobszar zdatności WMe Ì Wz o postaci:

WMe = [ TCMSi, TCMWj, TCMFl, TCMGk, TCMXo ]                                 (93)

i macierz:

(94)

Jak już wspomniano wcześniej, to każda cecha, oprócz nazwy, powinna zawierać wartość liczbową (tolerancję lub wartości graniczne) lub charakterystykę opisową. Można też przyporządkować Jej dodatkowe oznaczenia identyfikacyj­ne, np. numer podzespołu, zespołu systemu lub numer montażowy. Powinny też być podawane informacje o sposobie wyznaczania wartości liczbowych (wykresy, normatywy, wzory matematyczne) i o rodzaju dokumentacji, gdzie cecha powinna być zapisana.

Analiza cech obszaru Wz (elementów macierzy AWz ) powinna być wspoma­gana opracowywanymi zależnościami pomiędzy warunkami (parametrami), wariantami procesu technologicznego, oddziaływaniami czynników wymusza­jących wj(t) i cechami yij czy nawet podzbiorami zdatności w postaci:

yij = f (Xl); ( l = 1, 2,…, L )                                                                                (95)

gdzie: i – liczba kolumn macierzy ( i = l, 2,…, 21 ),

j – liczba wierszy macierzy ( j = l, 2,…, 6 ),

lub też w postaci:

Wzr = f (Xl); ( r = 1, 2,…, 6 ).                                                                              (96)

Mogą być również badane zależności (jako relacje wewnętrzne) pomiędzy poszczególnymi elementami macierzy AWz:

bez zajścia s = p                                                              (97)

Związki określające relacje (95-96) można opracowywać w formie modeli matematycznych, wzorców struktury materiału rdzenia, charakterystyk pod­stawowych WW, nomogramów, wykresów, instrukcji technologicznych, wzbo­gacając materiał źródłowy do ustalenia obszaru zdatności Wz w zależności od przyjętego poziomu niezawodności R(0) który jest utrzymany w przypadku:

R(0) = P ( yij Î Wz )                                                                                            (98)

Jeżeli wszystkie elementy yij macierzy AWz zawierają się w obszarze Wz to można też przyjąć, że niezawodność R(0) = 1.

W czasie eksploatacji obiektu, na skutek oddziaływania czynników wymu­szających wj(t), ulegają zmianie w sposób losowy cechy yij obszaru zdatności Wz elementu ukształtowane w procesie wytwarzania. Każda cecha jest odpowied­nim funkcjonałem o postaci:

ij(t) = f [ wj(t), yij, t ].                                                                                (99)

Zmianę zaś obszaru zdatności Wz(t) można traktować jako proces stochas­tyczny mogący być przedstawiony relacją:

Wz(t) = f [ wj(t), Wz, t ].                                                                                   (100)

W rozważanym okresie eksploatacji elementu, np. w czasie równym zasobo­wi ustalonemu Zu, kształtowana funkcja niezawodności powinna spełniać warunek:

R(t) ³ R(t)dop.,                                                                                                  (101)

gdzie R(t)dop jest obliczonym i ustalonym poziomem niezawodności elementu. Odpowiada mu również ustalony obszar zdatności Wz(t)dop. i wynikające z tego ograniczenie dla każdej cechy obszaru, tj.

ij(t) ³ y­ij(t)dop.                                                                                                (102)

W związku z tym warunek utrzymania poziomu niezawodności R(t)dop. będzie następujący:

R(t)dop. = P [y­ij(t) Î Wz(t)dop. ].                                                                        (103)

Z przedstawionych relacji wynika, że racjonalne ustalanie cech obszaru zdatności Wz elementów i całych systemów technicznych wymaga istnienia w zakładowym (branżowym) systemie jakości dwóch zintegrowanych ze sobą podsystemów kształtowania niezawodności obiektów, tj. podsystemu konstrukcyjno-eksploatacyjnego i podsystemu technologicznego.

W całej działalności badawczo-konstrukcyjnej podsystemu pierwszego waż­ną rolę odgrywają badania związków określonych relacją (99) usiłujące w coraz większym stopniu uwzględniać rzeczywistą probabilistyczną naturę procesu [1]. W badaniach tych niezawodne są informacje o zmianach stanów technicznych systemów i elementów zachodzących w ich eksploatowaniu, których metody opracowywania podano w [16] i w innych licznych pracach prezentowanych na konferencjach i sympozjach naukowych. Pomimo tego w dalszym ciągu istnieje skąpy przepływ informacji ze sfery eksploatacji. Stąd też wydaje się uzasadnione tworzenie podsystemu łączącego sferę badawczo-projektową i sferę eksploatacyjną.

Podstawowa rola podsystemu technologicznego w ustalaniu obszaru zdat­ności Wz obiektów technicznych to opracowywanie metod i sposobów urzeczy­wistniania wcześniej proponowanych cech Wz, poprzez stymulowanie prac w trzech zasadniczych kierunkach, tj. [1, 2]:

  • opracowywania nowych tworzyw konstrukcyjnych,
  • opracowywania szczegółowych zależności zgodnie z relacjami głównie (95) i (96),
  • prowadzenia całościowej działalności badawczej sterowania niezawod­nością obiektów metodami technologicznymi.

Stąd też podzielona przez wielu autorów opinia, jakoby zadaniem sfery wytwarzania było tylko bierne odtwarzanie na obrabianych elementach zada­nych przez projektantów cech Wz, wydaje się niewłaściwa.

Przedstawiony macierzowy zapis cech obszaru zdatności Wz należy trak­tować jako jedną z prób zwartego i przejrzystego zapisu warunków do ukształtowania niezawodności początkowej elementów i systemów technicz­nych stanowiących próbę uporządkowania dotychczas stosowanego, niespój­nego opisu zbioru cech obszaru Wz.

Ujednolicony zapis obszaru Wz może ściślej zintegrować wszystkie sfery związane z powstawaniem i istnieniem obiektów (zgodnie z pętlą jakości – rys. 7) w zakresie opracowywania racjonalnych metod sterowania ich niezawodnością, z wykorzystaniem techniki komputerowej, budowaniem bazy badawczej i banków doradczo-informacyjnych (systemów ekspertowych) [13].

Dyski twarde, budowa i zasada działania

Wstęp, cel i  zakres pracy

Pierwsze komputery jakie powstały miały służyć do obliczeń matematycznych i nie były o wiele bardziej skomplikowane od dzisiejszych kalkulatorów. Sytuacja ta uległa gwałtownej zmianie dzięki pamięciom masowym. Prawdopodobnie to zadecydowało o tym, że komputery zaczęto używać w innych dziedzinach życia, a nie tylko tak jak to było na początku do celów wojskowych.

Pierwsze pamięci masowe mało przypominały te znane nam w dzisiejszych czasach były to bowiem bardzo wolne i zawodne karty i taśmy perforowane opracowane przez firmę IBM w 1952r.

Trzeba było aż czterech lat aby nastąpił kolejny przełom i tak w 1956r. firma ta stworzyła napęd dyskowy IBM 350 RAMAC (Random Access Method for Accounting and Control). Miał on niewielką pojemność bo zaledwie 5 MB i składał się z 50 24-calowych dysków. Za to jednak umożliwiał szybki dostęp do danych bez konieczności przewijania taśmy tak jak to miało miejsce przedtem. Tym samym IBM 350 był zaczątkiem dzisiejszych pamięci masowych umożliwiając jednocześnie zastosowanie go w różnych dziedzinach życia.

Kolejnym problemem z jakim borykali się naukowcy była możliwość zewnętrznego składowania danych, a nie jak w przypadku IBM 350 który był jedynie rozszerzeniem pamięci operacyjnej. Rozwiązanie problemu nastąpiło w roku 1962.

Od tej pory wymienne dyski dawały już możliwość zewnętrznego składowania danych bez ograniczeń pojemności.

Dzisiaj sięgając tamtych czasów trudno sobie wyobrazić komputer bez stacji dyskietek, wymiennych dysków o dużych pojemnościach.

Na początku najpopularniejszą pamięcią masową był magnetofon kasetowy, zaś dyski wymienne (dyskietki) początkowo 5,25 cala i pojemności 160-180 kB były wielkim rarytasem.

W ten sposób z biegiem czasu stacja dyskietek stała się nieodzownym elementem komputera. W początkowym okresie pojemność 360 kB lub1,2 MB dyskietek pięciocalowych a potem 720 KB i 1,44 MB dyskietek trzyipółcalowych była w zupełności wystarczająca.

Poza tym początkowe parametry ówczesnych komputerów takie jak 1 MB pamięci RAM oraz 5-20 MB dysku twardego i mała moc przetwarzania procesorów nie pozwalały na pracę z większymi ilościami danych. Sytuacja ta jednak musiała ulec zmianie gdyż potrzeby i wymagania użytkowników wciąż rosły, a komputery zaczęto używać do coraz to poważniejszych zadań (np. elektroniczne tworzenie publikacji). W ten oto sposób najpierw używano ich do składania tekstów i tworzenia prostej grafiki, aż do momentu umieszczania na nich już nie czarno-białych, a kolorowych zdjęć. Pliki tworzonych podczas skanowania zdjęć tak gwałtownie wzrosły z chwilą wprowadzenia koloru, że pojemność pamięci dysków miały ogromne znaczenie. Jak wielkie wymagania spoczywają  na producentach pamięci masowych możemy bardzo łatwo zaobserwować po ich nowych produktach, których parametry wciąż są podnoszone, a jakość udoskonalana.

Problem przenoszenia danych istniał od momentu powstania komputerów. Wraz z ich szybkim rozwojem , rozwijały się równie szybko wszystkie dziedziny pokrewne. Także wielkość pojemności pamięci masowych rosła wraz z rosnącym zapotrzebowaniem. Wszelkiego rodzaju placówki naukowe, banki, urzędy i inne instytucje musiały i muszą przechowywać olbrzymie ilości informacji, a każdy kolejny rok przynosi im coraz więcej problemów w tym względzie. Głównymi wadami tradycyjnych sposobów archiwizowania danych (papier, mikrofilm, taśma magnetyczna, itd.) są:

  • długi czas potrzebny do odszukania potrzebnych informacji,
  • niska trwałość nośników i ich wrażliwość na różne „przeciwności losu”
  • oraz wysoki koszt magazynowania danych,

Ogólnie można powiedzieć, że obecnie mamy dwie, uzupełniające się „szkoły” nowoczesnego gromadzenia i redystrybucji danych w formie elektronicznej. Pierwsza z nich – klasyczna opiera się na tym, że treść wszystkich interesujących nas dokumentów zostaje najpierw przetworzona i zapisana w formacie np. plików tekstowych, arkuszy kalkulacyjnych, itd., a następnie jest indeksowana za pomocą specjalnie do tego celu opracowanych narzędzi. Tak przygotowana postać elektroniczna jest następnie składowana na nośniku trwałym. Opisana metoda jest mało przydatna, gdy zarchiwizowany dokument będzie musiał być kiedyś odtworzony w swej pierwotnej formie. Opracowano więc drugą metodę, zgodnie z którą przechowywane są nie treść lecz obrazy dokumentów. Systemy tego typu noszą nazwę imagingu, a do segregowania i odszukiwania określonych informacji służą w nich bazy danych, w których za pomocą słów kluczowych opisuje się zawartość obrazów dokumentów.

Wszystkie te dokumenty, czy to skanowane czy też trzymane wcześniej w formie elektronicznej trzeba gdzieś trzymać na osobnym miejscu aby w razie awarii istniała możliwość ich odtworzenia. Początkowe archiwizowanie odbywało się na dyskietkach. Pierwsze dyskietki, nazywane wówczas dyskami elastycznymi, miały średnicę 8 cali i 128 KB pojemności. Postęp technologiczny i rosnące wymagania użytkowników sprawiły, że średnica dyskietki z czasem zmniejszyła się do 3,5 cala, a jej pojemność wzrosła do 1,44 MB. Dalszy wzrost pojemności okazał się zbyt trudny i zbyt kosztowny – dyskietki 3,5″, 2,88 MB nie przyjęły się. Jednak ten kilkunastokrotny wzrost pojemności dyskietki nie wystarczył – przebiegająca równolegle ewolucja zastosowań komputerów oraz nowe technologie produkcji oprogramowania sprawiły, że zarówno same programy, jak i użytkowane przez nie dane przybrały objętości, wobec których dyskietka zaczęła stawać się nośnikiem coraz mniej wygodnym i coraz mniej użytecznym. Próby stworzenia taniego nośnika wymiennego o większej pojemności trwały już od wielu lat, ale przez stosunkowo długi okres nie przynosiły one żadnych rozwiązań, które zyskałyby trwałą, powszechną popularność, choć niektóre z nich zrobiły krótkotrwałe kariery.

Pierwszym takim rozwiązaniem był Bernoulli disc firmy Iomega – 10 MB danych można było zapisać na 5,25-calowym krążku magnetycznym, zamkniętym w plastykowym pudełku. Mimo dużej, jak na owe czasy, pojemności i stosunkowo niskiej ceny, rozwiązanie nie przyjęło się szerzej, może zresztą dlatego, że powstało jeszcze w czasach, gdy standardem była dyskietka 5,25″ o pojemności 360 KB i nieco później 1,2 MB, a przeciętna wersja instalacyjna dużego programu nie zawierała więcej niż 5 dyskietek.

Głównym celem, przyświecającym podczas pisania tej pracy była chęć przybliżenia historii, budowy i zasady działania pamięci masowych jakimi są dyski twarde.

W rozdziale pierwszym uwzględniono takie aspekty jak historia dysku twardego, jego budowa fizyczna i logiczna, parametry (pojemność, szybkość, jakość, wydajność) oraz  jego organizacja. W kolejnym rozdziale [niniejszej pracy magisterskiej] omówiono zasadę działania dysku twardego, a następnie jego instalację i konfigurację.  Rozdział piąty dotyczy interfejsów komunikacyjnych. Najpierw opisany jest pierwszy interfejs komunikacyjny czyli ST-506/412, a następnie IDE/ATA oraz SCSI. Następny poświęcony jest użytkowaniu i zasadom postępowania z dyskami twardymi, gdzie zawarto takie zagadnienia jak deinstalacja, defragmentacja, skanowanie oraz porządkowanie dysku. Ostatni rozdział siódmy poświęcony jest pamięciom masowym w przyszłości, czyli wszystko o tym czego możemy spodziewać się na rynku w najbliższym czasie, nowe technologie oraz rozwiązania w tej dziedzinie.

Znaczenie informacji eksploatacyjnej w fazie projektowania obiektu

Wykorzystanie danych eksploatacyjnych na etapie projektowania jest warunkiem koniecznym prawidłowej realizacji tego procesu. Wśród kryteriów optymalizacji w projektowaniu, powinny być bowiem stosowane, równorzędnie z innymi, kryteria eksploatacyjne. Kryteria te występować mogą w postaci różnego rodzaju wskaźników, których podstawą szacowania jest prognozowanie oczekiwanych wartości parametrów obiektu, w oparciu o pełną informację eksploatacyjną. W wielu pracach jako nadrzędne kryterium eksploatacyjne w projektowaniu, przyjmowana jest niezawodność obiektów złożonych. Przyjęcie tego założenia jest uzasadnione tym, że „… niezawodność jest własnością uwarunkowaną logicznymi powiązaniami między wielkościami fizycznymi ….. całego układu mechanicznego: czynnikami wymuszającymi zewnętrznymi i wewnętrznymi, otoczeniem,  środowiskiem i obciążeniami” [22].

Omówienie szeregu problemów, związanych z zapewnieniem wymaganej niezawodności na etapie projektowania zawieraja m.in. praca [27].Najistotniejszym warunkiem zapewnienia wysokiego poziomu niezawodności obiektu na etapie projektowania jest posiadanie informacji o zachowaniu się podobnych obiektów na etapie eksploatacji [27] .Bardziej szczegółowe omówienie problemu wzajemnych relacji pomiędzy projektowaniem a eksploatacją, przedstawione jest w publikacji [10]. Zaproponowany w [10] zapis graficzny zwrotnych sprzężeń informacyjnych pomiędzy omawianymi procesami przedstawiono na rys 1.3 [17]. Jako bazę przeprowadzonych w [10] rozważań przyjęto metodę projektowania „Lemach 2” [17] z uwagi na jej duży stopień ogólności. Metoda ta stanowi sekwencyjno-iteracyjny układ czynności projektowo-konstrukcyjnych, w którym wyróżnić można 5 etapów zawierających 27 działań oraz 55 kroków roboczych.

Etapy projektowania oznaczono cyframi rzymskimi, zaś spośród kroków roboczych wyodrębniono na rys.3.2. te, które stanowią ogniwa sprzężeń pomiędzy projektowaniem i eksploatacją obiektu. Kroki robocze przedstawione są jako punkty w „układzie współrzędnych”: etap projektowania – funkcja projektowa. Skierowane linie łamane ciągłe obrazują kierunek i zwrot sprzężeń zewnętrznych pomiędzy blokami projektowania i eksploatacji. Linie przerywane przedstawiają sprzężenia „wewnątrzprojektowe”, implikowane przez sprzężenia zewnętrzne. Zaproponowany zapis graficzny daje informację na jakim etapie projektu i w jakim celu (funkcja projektowa), wykorzystywane są informacje eksploatacyjne, a także w których etapach projektowania powstają ustalenia odnośnie eksploatacji obiektu. Należy zwrócić uwagę na fakt, że informacje eksploatacyjne tej samej grupy (np. wskaźniki niezawodności, trwałości) mogą być wykorzystywane kilkakrotnie w celu korygowania projektu na poszczególnych jego etapach.

Modelowanie systemów informacji

CEL I ZAKRES PRACY. UZASADNIENIE PODJĘCIA TEMATU

Celem pracy jest przedstawienie metodyki modelowania systemu informacji eksploatacyjnej, dla obiektów reprezentujących specyficzną klasę, urządzeń pracujących w cyklach okresowo-ciągłych, z zamiarem podkreślenia znaczenia funkcjonowania takiego systemu dla zminimalizowania strat ekonomicznych spowodowanych przestojami w produkcji. Modelowanie SIE jest przedstawione na przykładzie pomp wirowych pracujących w cukrowniach. Charakterystyczne dla obiektów tego typu są długie zdeterminowane cykle remontowe oraz gotowość do pracy w sezonie i wymagany resurs użytkowy. Każda przerwa w pracy spowodowana awariami pociąga za sobą duże straty wynikające m.in. z niewykonania określonych zadań produkcyjnych w terminie oraz ze strat surowcowych.

Punktem wyjścia do rozważań w niniejszej pracy jest rola informacji eksploatacyjnej na etapach projektowania, wytwarzania i eksploatacji. Pokazana jest konieczność istnienia sprzężeń informacyjnych dla prawidłowości przebiegu tych procesów, a także rola informacji eksploatacyjnej dla kosztów eksploatacyjnych.

W dalszej części omówione są teoretyczne podstawy modelowania SIE, przedstawiona jest struktura eksploatyki jako nauki pozwalającej sformalizować rzeczywistość eksploatacyjną i opisać ją matematycznie posługując się w tym celu „wypróbowaną metodą nauk abstrakcyjnych”, metodą modelowania. Dalsze rozważania dotyczą podejścia systemowego do modelowania SIE a wynikiem ich jest przyjęcie jako zasadniczego etapu modelowania, dokładnego zamodelowania badanego fragmentu rzeczywistości eksploatacyjnej poprzez stworzenie dwóch modeli: badawczego (model poznawczy, model ocenowy, model decyzyjny) i pragmatycznego.

Część dotycząca matematycznego modelowania decyzyjnego przedstawia sposób budowania matematycznego modelu decyzyjnego poprzez opis identyfikacyjny i formalny rzeczywistości eksploatacyjnej aż do stworzenia opisu w języku matematyki poszczególnych elementów modelu.

Następnie przedstawiona jest procedura modelowania SIE dla pomp wirowych, pracujących w cukrowniach, stanowiących przykład obiektów pracujących w cyklach okresowo- ciągłych. Opisany jest proces identyfikacji poznawczej przedmiotu badań i wskaźniki wykorzystywane na etapie modelowania ocenowego, sformułowane jest kryterium decyzyjne i przedstawiony jest model decyzyjny sterowania eksploatacją.

W rozdziale siódmym przedstawione są możliwości wykorzystania nowoczesnych metod reprezentacji wiedzy eksploatacyjnej poprzez zastosowanie systemów ekspertowych w eksploatacji maszyn.

W zakończeniu pracy sformułowano wnioski, wynikające z przedstawionych rozważań i opracowanego modelu systemu informacji eksploatacyjnej dla obiektów pracujących w cyklach okresowo-ciągłych.

Uzasadnienie podjęcia tematu stanowi rozdział 3 niniejszej pracy, w którym omówiono znaczenie systemów informacji eksploatacyjnej (SIE) dla prawidłowej realizacji wszystkich etapów „życia” obiektu technicznego.

System racjonalnego oddziaływania na niezawodność obiektu w fazie jego projektowania

Jak już wspominano w rozdz. 2. do działań wchodzących w skład systemu racjonalnego oddziaływania na niezawodność obiektu w fazie jego projektowania należy zaliczyć:

  1. budowę niezawodnościowego modelu obiektu
  2. budowanie niezawodności głównie teoretyczne przeprowadzone na zbudowanym modelu
  3. typowanie najkorzystniejszych rodzajów ulepszeń

Zasady i sposoby realizacji działań a) i b) omówiono szczegółowo w rozdziałach 3, 4 i 5 niniejszej pracy.

Trzecim z podstawowych działań proponowanego systemu ra­cjonalnego oddziaływania na niezawodność (i bezpieczeństwo) obiektu jest typowanie najkorzystniejszych rodzajów ulepszeń. Podstawą do takich działań konstruktora są wyniki badań nie­zawodności (i bezpieczeństwa), na przykład w postaci wykresów zależności wybranego wskaźnika niezawodności od różnych czyn­ników projektowych, technologicznych i eksploatacyjnych. Ulepszenia polegają głównie na odpowiednich zmianach wartości tych czynników.

W ogólnym przypadku wybór czynnika, którego wartość powin­na ulec zmianie, nie powinien być jednak oparty na kryterium niezawodności, gdyż zmiana ta może wywołać nie tylko podwyż­szenie poziomu niezawodności, lecz również jednoczesne pogor­szenie innych cech obiektu, np. bezpieczeństwa, ciężaru, kosz­tu wykonania, kosztu eksploatacji itd. O wyborze takim powinno więc decydować globalne kryterium oceny obiektu, uwzględniają­ce najważniejsze jego cechy. Jest nią tzw. funkcja do­broci, uwzględniająca różne istotne cechy obiektu, różne ich ważności, a także losową zależność niektórych cech od czasu. Dla czasu  t  wynosi ona:

(104)

gdzie: Xk(t) jest k-tą cechą świadczącą o dobroci obiektu (ciężar, koszt wykonania  Cw,  straty wywołane zawodnością C(t),  inne koszty eksploatacyjne  C (t),  zagrożenie [1-B(t)] itd.;  wk(t)  jest wagą k-tej cechy;  xk*(t)  jest górną warto­ścią graniczną k-tej cechy  (większą od zera), której przekro­czenie jest niedopuszczalne lub niepożądane;  l  jest liczbą. istotnych cech obiektu;  J(t)  jest wartością zadania wykony­wanego przy użyciu obiektu.

Niektóre sposoby ustalania wartości xk*  oraz  wk  są przedstawione w pracy [25]. Ustalanie wartości xk*  polega na odpowiednim wyborze tych wartości z zakresu występowania wartości cech  Xk  obiektów podobnych (do rozpatrywanego) eks­ploatowanych w podobnych warunkach w jednakowym czasie. Na podstawie umowy oraz pewnych ograniczeń technicznych i nie­technicznych za wartość xk* przyjmuje się największą obserwo­waną wartość cechy  Xk,  jej wartość średnią lub inną, w za­leżności między innymi od prowadzonej polityki w zakresie po­stępu technicznego.

Najważniejszą czynnością przy ustalaniu wartości współczyn­ników ważności  wk  (wg sposobu podanego w [25]) jest upo­rządkowanie przez zespół ekspertów zbioru obiektów podobnych (do rozpatrywanego) eksploatowanych w podobnych warunkach w jednakowym czasie według na przykład rosnącej dobroci oraz przypisanie im odpowiednich wartości funkcji dobroci. Jest to podstawą do ułożenia odpowiedniego układu równań (104), z któ­rego wyznacza się następnie wartości wk.  Taka metoda polega­jąca na ustaleniu porządku preferencji jest stosowana między innymi w teorii użyteczności.

W wymienionych pracach przyjmuje się za funkcję kryterium, służącą do oceny dobroci, albo wartość oczekiwaną  EY funkcji dobroci, albo ryzyko a przekroczenia przez tę funkcję pewnej wartości granicznej (lub przyjętego poziomu odniesienia) y*. Jeśli więc funkcją kryterium, służącą do oceny jest na przy­kład EY (dla określonego czasu eksploatacji), to zmiany war­tości czynnika projektowego, technologicznego lub eksploa­tacyjnego w celu poprawy niezawodności mają  sens, gdy

D(EY) = (EY)2 – (EY)1 < 0                                                                          (105)

gdzie indeks „1” oznacza obiekt przed zmianą, a indeks „2” oznacza obiekt po zmianie. Warunkiem decydującym o wyborze ro­dzaju czynnika do zmiany w pierwszej kolejności jest w tym przypadku warunek

(106)

gdzie

(107)

Indeks „2” oznacza obiekt po zmianach wartości czynnika g, przy czym g należy do zbioru  G  rozpatrywanych czynników, dla których spełnione są warunki (105).

Metoda kolejnych zmian wartości wspomnianych czynników konstrukcyjnych, technologicznych i eksploatacyjnych (np. zgodnie z warunkiem (106) w kolejności wzrastania D(EY) może być metodą optymalizacji rozwiązania technicznego obiektu o przyjętym schemacie projektowym. Za jej pomocą możliwe jest na przykład wyznaczenie optymalnego rozkładu poziomów nieza­wodności na poszczególne PK obiektu. W tym celu zmiany pozio­mów niezawodności poszczególnych PK przez zmiany wartości czynników ze zbioru G należy przeprowadzać dotąd, aż speł­nione zostaną w przybliżeniu warunki

(108)

tzn. dotąd, aż zmiany wybranego czynnika nie przestaną popra­wiać wartości oczekiwanej funkcji dobroci. To zagadnienie syn­tezy niezawodnościowej obiektu jest przedstawiane nieco ob­szerniej w pracach [25].

Wybór najkorzystniejszego rodzaju ulepszenia, odbywający się przy wykorzystaniu warunków (105) i (106), wymaga znajo­mości matematycznej postaci kryterium, np. wartości oczekiwa­nej funkcji dobroci (104). W wielu przypadkach o dobroci obiektu decydują tylko względy ekonomiczne, a wartość wykony­wanego zadania  J(t)  nie zmienia się przy zmianie wspomnia­nych czynników projektowych, technologicznych i eksploatacyjnych. Łatwo uzasadnić , że wówczas funkcja dobroci w postaci (104) może być zastąpiona funkcją

Y(t) = Cw + Ce(t) + C(t).                                                                                (109)

Jeśli o dobroci obiektu decydują nie tylko względy ekono­miczne, to należy korzystać z postaci (104) funkcji dobroci. Jednakże może być to niewygodne z powodu trudności w określe­niu współczynników ważności  wk(t).  Proponuje się, aby wów­czas przy wyborze rodzaju ulepszenia korzystać z funkcji

(110)

gdzie bezpieczeństwo Bb(t). Jeśli zamierzone ulepszenia obiektu nie zmieniają wartości wielkości  Bb(t),  to w przypadku wspomnianych trud­ności proponuje się korzystać zamiast z postaci (110) funkcji dobroci – z postaci

(111)

lub z postaci (109).

Algorytm tych podstawowych działań proponowanego systemu jest  przedstawiony poglądowo na rys. 8. Na rysunku tym zazna­czone są również ważniejsze sprzężenia w przepływie informacji między tym systemem i różnymi etapami fazy projektowania oraz fazami wytwarzania i eksploatacji. Między innymi wskazane są te etapy fazy projektowania, w których możliwe są racjonalne działania na rzecz niezawodności i bezpieczeństwa obiektu za pomocą systemu przedstawionego w niniejszym opracowaniu.

Wpływanie na poziom niezawodności projektowanego obiektu możliwe jest już we wcześniejszym etapie fazy projektowania, mianowicie w etapie tworzenia i wyboru projektu koncepcyjnego, ale jedynie w sposób jakościowy. Oddziaływanie na poziom nie­zawodności w tym etapie może być realizowane przez wybór ta­kiej koncepcji, w której przewiduje się:

  • małą liczbę elementów, a właściwie – fragmentów obiektu szczególnie narażonych na niesprawności;
  • małą liczbę takich fragmentów obiektu, w których szyb­kość przebiegu zjawisk fizycznych prowadzących do niesprawno­ści może być duża;
  • małą liczbę takich fragmentów obiektu, których niespraw­ności stanowią duże zagrożenie dla ludzi i dla obiektu;
  • racjonalne zastosowanie zabezpieczeń, ograniczników i wskaźników;
  • łatwą wymianę elementów (profilaktyczną i poawaryjną);
  • łatwy sposób diagnozowania;
  • modułową konstrukcję niektórych fragmentów obiektu, a nawet całego obiektu;
  • małą wrażliwość na błędy wykonania i na błędy eksploata­cji itd.

Jak już wspomniano w rozdz. 4, racjonalne oddziaływanie na niezawodność i bezpieczeństwo obiektu, oddziaływanie z za­mierzonym i wymiernym efektem, możliwe jest jednak dopiero po wykonaniu projektu wstępnego i zbudowaniu na podstawie tego projektu niezawodnościowego modelu obiektu.

Następnym etapem fazy projektowania, w którym można od­działywać na tworzony obiekt za pomocą proponowanego systemu jest etap tworzenia projektu technicznego (rys.8). Bywa tak, że ten etap wymusza pewne zmiany w rozwiązaniu projektowym obiektu. Jeśli zmiany te mogą być istotne z punktu widzenia niezawodności, to konieczne jest uwzględnienie ich w modelu niezawodnościowym i zbadanie ich wpływu na poziom niezawodno­ści projektowanego obiektu.

Zaproponowany system może też być wykorzystany do oddzia­ływania na niezawodność (i bezpieczeństwo) obiektu w pozosta­łych etapach fazy projektowania oraz w fazach wytwarzania  i eksploatacji (rys.8). W tym przypadku wyniki teoretycznych badań niezawodności mogą służyć do potwierdzania i uzupełnia­nia wyników eksperymentalnych badań prototypów i serii infor­macyjnej oraz wyników eksploatacyjnych badań produkowanych obiektów.

Rys.8. Racjonalne oddziaływanie  na niezawodność obiektu w fazie jego projektowania

Celem prowadzenia takich badań jest doskonalenie obiektu w kolejnych etapach i fazach jego tworzenia i istnie­nia przez: wykrywanie słabych ogniw, wyjaśnianie przyczyn nie­sprawności, wskazywanie najbardziej efektywnych sposobów do­skonalenia rozwiązania konstrukcyjnego obiektu itd.

Reprezentacja wiedzy inferencyjnej

[podrozdział pracy magisterskiej]

Wiedza inferencyjna w systemach ekspertowych jest związana z regułami wnioskowania. Ten rodzaj wiedzy eksploatacyjnej jest potrzebny przy roz­wiązywaniu takich problemów, jak np. diagnostyka objawowa i zadaniowa, określanie zakresu naprawy, planowanie użytkowania i obsługiwania. A więc wszędzie tam, gdzie należy podejmować decyzje.

Najbardziej rozpowszechnionym systemem reprezentacji wiedzy inferencyj­nej są bazy reguł. Istnieją programy narzędziowe, tzw. ES-Shell (Ekspert-System Shell), tworzące wyspecjalizowane środowisko programowe służące do projektowania systemów ekspertowych.

Chociaż systemy ekspertowe oparte o reguły wymagają silnego zawężenia dziedziny, to w wielu sytuacjach przedstawienie problemu w jednej bazie wiedzy prowadzi do znacznej jej nadmiarowości oraz możliwości konfliktu reguł. Dlatego też, już na etapie konceptualizacji należy przeanalizować możliwość dekompozycji problemu na względnie autonomiczne podproblemy o zróżnicowanym stopniu ogólności, którym odpowiadałyby odrębne bazy wiedzy. Modularność bazy wiedzy stwarza możliwość zanurzania modułów niższego rzędu zawierających wiedzę bardziej szczegółową w modułach wyższego rzędu zawierających wiedzę ogólną. Taka struktura bazy wiedzy jest łatwa do zaimplementowania, ponieważ programy ES-Shell mają możliwość wykonywania komend inicjujących inne bazy. Powstaje w ten sposób możliwość wielotorowości i wieloetapowości procesu konsultacji (wypracowywania porady). Każdy etap procesu konsultacji obsługiwany jest przez odrębny, specyficzny moduł bazy wiedzy wybierany w zależności od danych dostarczanych przez użytkownika i wcześniejszego przebiegu konsultacji.

Z metodologicznego punktu widzenia atrakcyjnym sposobem podejmowania decyzji w przemyśle jest oparcie ich na systemach ekspertowych. Takie systemy pozwalają na doskonalenie wnioskowania w oparciu o tworzone bazy wiedzy, wykorzystujące wiedzę heurystyczną (operatorską), wiedzę proceduralną (modele matematyczne, algorytmy identyfikacji) oraz wiedzę symulacyjną. Systemy ekspertowe maja swoje zastosowanie najczęściej w dziedzinach, które są słabo sformalizowane, tzn. do których trudno jest przypisać teorie matematyczne i zastosować ścisły algorytm działania. Przeciwieństwem są dziedziny, dla których istnieją algorytmy numeryczne. W takim przypadku stosowanie systemów ekspertowych nie jest celowe, gdyż programy algorytmiczne są na ogół znacznie szybsze i doprowadzają do optymalnego rozwiązania, a systemy ekspertowe prowadzą najczęściej do rozwiązań nie koniecznie optymalnych, lecz akceptowalnych przez użytkownika systemu. Zadania systemu ekspertowego w zakresie eksploatacji wynikają z potrzeb użytkownika i można je podzielić na następujące grupy: uczenie, informowanie, doradzanie.

Uczenie jest ukierunkowanym przekazywaniem informacji, być może ze wstępnym testowaniem stopnia ich rozumienia. Wymagana jest tu możliwość wyboru przez użytkownika różnych ścieżek i tempa uczenia w zależności od jego indywidualnych predyspozycji i posiadanej wiedzy. Informowanie jest genero­waniem odpowiedzi na predefiniowane grupy zapytań. Doradzanie jest proce­sem obejmującym wspomaganie przy precyzowaniu problemu oraz generowanie i testowanie hipotez wyjaśniających i operacyjnych (działaniowych). Na przy­kład, przy wystąpieniu zaburzeń funkcjonowania maszyny, wspomaganie obejmuje: pozyskanie od użytkownika precyzyjnej specyfikacji problemu wraz z kontekstem, wygenerowanie diagnozy, tj. postawienie hipotez odnośnie do przyczyn, zaproponowanie określonych działań regulacyjnych lub napraw­czych, ewentualnie dalszych działań sprawdzających.

Powstania programu Joomla!

praca magisterska z 2008 roku

W latach dziewięćdziesiątych. ubiegłego wieku firma Sun Microsystem uważała, że „sieć to komputer”. W tym samym czasie Microsoft uprawiał taką politykę, by system Windows znalazł się na dysku każdego komputera. Filozofię, którą można scharakteryzować jako „moje”.[1]

Motywacją powstania tych filozofii były względy ekonomiczne – Microsoft sprzedawał oprogramowanie dla komputerów z myślą o indywidualnych klientach, firma Sun z kolei sprzedawała sprzęt i programy dla przedsiębiorstw.

Internet powstał w latach 60. ubiegłego wieku, lecz dopiero po 30 latach zaczął się rozprzestrzeniać w szalonym tempie. Rozwój Internetu wzrastał dzięki językowi HTML (ang. HyperText Markup Language), w którym pisało się strony internetowe. Osoba, która nie posiadała adresu e-mail stawała się nieosiągalna, a firma bez strony WWW okazywała się nie tylko przestarzała, ale traciła także szacunek w oczach klientów. Nowi obywatele sieci pochodzili za świata, w którym rządziły dwie filozofie – „moje” i „nasze”. Ci pierwsi kupowali edytory HTML, by móc tworzyć strony

WWW, ci drudzy pisali kod własnoręcznie w prostych edytorach tekstu. Zaczęły powstawać agencje internetowe, w których można było zamówić strony internetowe. Wszystkie te grupy, które tworzyły strony internetowe, napotykały ten sam problem – strony napisane w HTML były statyczne, a zmiana zawartości strony wymagały poprawek na dysku twardym, wgrywania strony na serwer. Było to rozwiązanie niewygodne i nieekonomiczne oraz bardzo ograniczało tworzenie zaawansowanych projektów. Zaczęto tworzyć programy mające na celu automatyzację tych procesów. Takie strony zawierały interaktywne elementy w stylu licznika odwiedzin. Zaczęto tworzyć aplety Java, które były używane do obsługi interakcji aplikacji internetowych niemożliwych do osiągnięcia za pomocą HTML-a. Takie rozwiązanie pozwalało tworzyć bardziej zaawansowane projekty, jak na przykład internetowa rezerwacja biletów lotniczych. Rezultatem starań był rynek, na którym dochodziło do prezentacji coraz to nowszych wersji przeglądarek internetowych, co świadczyło o ogromnym potencjale tkwiącym w internetowym rynku.

Kolejnym przełomem było stworzenie nowego języka skryptowego PHP przez duńsko-grenlandzkiego informatyka Rasmusa Lerdorfa. Ten ambitny programista przyjął sobie za cel stworzenie interaktywnych elementów na swojej stronie domowej i w ten oto sposób powstał nowy język programowania. Od samego początku język ten był zintegrowany z bazą danych MySQL, był wspierany przez serwer sieciowy Apache, który zapewniał odpowiednią infrastrukturę do prawidłowego działania. W niedługim czasie zestaw Linux, Apache, MySQL oraz PHP stały się synonimem interaktywnej, opartej na bazach danych zawartości internetowej, która była wyświetlana za pomocą przeglądarki internetowej.

Początki były trudne, a nowa technologia zrozumiała dla nielicznych. Jednak bardzo szybko kod źródłowy języka PHP oraz innych aplikacji został ulepszony, ponieważ korzystało z niego wielu użytkowników i twórców. Powstawały nowe standardy oprogramowania służące do konkretnych celów, dla przykładu – phpBB to darmowa aplikacja umożliwiająca stworzenie forum dyskusyjnego. Dzięki prostej instalacji, obsłudze i ogromnym możliwością phpBB jest obecnie jednym z najpopularniejszych skryptów tego typu na świecie. phpMyAdmin to napisane w języku PHP narzędzie służące do łatwego zarządzania bazą danych MySQL.

Otwartość projektu zadecydowała o jego sukcesie. Statyczne strony HTML są uważane za przeżytek, wszystko musi być dynamiczne! Rozpoczęły się poszukiwania profesjonalnych aplikacji PHP o następujących cechach[2]:

  • prosty proces instalacji,
  • modyfikowalność kodu źródłowego,
  • bezpieczeństwo kodu źródłowego,
  • środowisko przyjazne dla użytkowników,
  • prostota w rozszerzaniu możliwości.

Wszystkie te cechy posiadał system Mambo opracowany w 2001 roku przez australijską firmę Miro [3]. System ten w celu przeprowadzenia testów został udostępniony w formie otwartego oprogramowania (ang. open source), co miało znaczący wpływ na jego dalszy rozwój. W 2002 roku produkt został podzielony na wersję komercyjną i ogólnodostępną. Wersja komercyjna nosiła nazwę Mambo CMS, a wersja ogólnodostępna Mambo Open Source (MOS). Dzięki temu projekt nadal mógł się rozwijać, a pojawienie się wersji komercyjnej gwarantowało zwiększony poziom bezpieczeństwa używania systemu oraz gwarancję firmy Miro na rozwijanie się danego produktu. Wersja darmowa miała całą rzeszę użytkowników – programistów, którzy bezustannie wprowadzali poprawki. Ponadto duże przedsiębiorstwa mogły budować na podstawie Mambo swoje własne rozwiązania.

W sierpniu 2005 roku firma Miro zakłada fundację dla projektu Mambo, która wyklucza zespół tworzący oprogramowanie z działalności korporacji. Rozpoczęły się zaciekłe dyskusje na forach społeczności na temat tego posunięcia. Powodem konfliktu była zmiana w licencji Mambo, która wprowadziła kilka istotnych ograniczeń do systemu. Fundacja z dnia na dzień zaczęła tracić zespół twórców oraz olbrzymią, międzynarodową społeczność składającą się z setek tysięcy wściekłych użytkowników. Ciągle trwał rozwój obydwu projektów, a 26 sierpnia Mambo Fundation wypuszcza kolejną wersję Mambo 4.5.3, lecz nie zostaje ona pozytywnie przyjęta na świecie.

Zespół twórców potrzebował nowej nazwy dla swego dzieła. Pierwszego września 2005 roku ogłoszono nową nazwę – Joomla!. Tym razem jednak zespół zapewnił sobie prawa do używania nazwy, a także dał społeczności możliwość zmiany istniejących serwisów stworzonych w Mambo na nową wersję. Praktycznie od razu na nowym forum zarejestrowało się 8 tysięcy użytkowników. Już w niespełna w miesiąc od pierwszego wydania, w październiku, podczas Linux & Open Source Awards w Londynie Joomla! wygrał w kategorii: „Najlepszy projekt Linux/Open Source”.

[1] Graf H., „Joomla! System zarządzania treścią.”, Helion, Gliwice 2007

[2] Linderman M., Fried J., “Przyjazne witryny WWW”, Helion, Gliwice 2005

[3] Graf H., „Joomla! System zarządzania treścią.”, Helion, Gliwice 2007

Zasady kontroli przepływu dla ruchu ABR

ATM Forum zdefiniował ogólne zasady dla ruchu typu ABR.

Komórki sterujące RM dla ruchu ABR powinny być generowane z CLP=0, jednak w niektórych sytuacjach, przedstawionych poniżej, urządzenie może wygenerować komórki RM z CLP=1. Wszystkie inne komórki wysyłane są z CLP=0. Komórki z CLP=0 nazywane są in-rate RM-cell, a z CLP=1 out-of-rate RM-cell.

Jednym z zastosowań komórek RM typu out-of-rate jest udostępnienie możliwości zwiększenia prędkości dla połączenia z ACR=0. Źródło może użyć komórek out-of-rate, aby próbkować stan sieci i  ewentualnie zwiększyć prędkość.

Zasady dla urządzenia nadawczego (źródła):

  1. Wartość ACR nie powinna nigdy przekroczyć PCR, ani też nie powinna być mniejsza niż MCR. Źródło nie może generować komórek in-rate przekraczając aktualną prędkość ACR. Źródło może zawsze wysyłać komórki in-rate z prędkością równą lub mniejszą niż ACR.
  2. Przed wysłaniem pierwszych komórek, po zestawieniu połączenia, źródło musi ustawić parametr ACR=ICR. Pierwszą wygenerowaną komórką musi być komórka sterująca RM typu forward
  3. Po wysłaniu pierwszej komórki (in-rate forward RM), kolejne komórki powinny być wysyłane w następującej kolejności:
  4. Następną komórką in-rate będzie forward RM, gdy:
    przynajmniej Mrm komórek in-rate zastało wysłanych i upłynął czas Trm
    lub Nrm-1 komórek in-rate zostało wysłanych.
  5. Następną komórką in-rate będzie backward RM, jeżeli warunek 3.A nie został spełniony, komórka backward RM czeka na wysłanie, jak również:
    nie została wysłana komórka backward RM od czasu wysłania ostatniej komórki forward RM.
    lub nie ma żadnych komórek z danymi do wysłania
  6. Następną komórką in-rate będzie komórka z danymi, jeżeli oba warunki 3.A i 3.B nie są spełnione, a dane czekają na wysłanie.
  7. Komórki spełniające założenia 1, 2, 3 powinny mieć ustawiony bit CLP=0
  8. Przed wysłaniem komórki forward in-rate RM, jeżeli ACR>ICR i czas, który upłynął od wysłania ostatniej komórki forward in-rate RM jest większy niż ADTF, ACR powinna być zmniejszona do ICR.
  9. Przed wysłaniem komórki forward in-rate RM i po zastosowaniu pkt. 5, jeżeli przynajmniej CRM komórek forward in-rate RM zostało wysłanych od momentu otrzymania komórki backward in-rate RM z ustawionym bitem BN=0, wartość ACR powinna być zredukowana przynajmniej do ACR*CDF, chyba że wartość ta byłaby mniejsza od MCR, wówczas ACR=MCR.
  10. Po zastosowaniu zasady 5 i 6, wartość ACR powinna być umieszczona w polu CCR wychodzącej komórki forward RM. Następne komórki in-rate powinny być wysyłane z nową ustaloną prędkością.
  11. Kiedy źródło otrzyma komórkę backward RM z ustawionym parametrem CI=1, to wartość ACR powinna być zredukowana przynajmniej do ACR*RDF, chyba że wartość ta byłaby mniejsza od MCR, wówczas ACR=MCR. Jeżeli backward RM ma ustawione CI=0 i NI=0, to ACR może być zwiększone o wartość nie większą niż RIF*PCR, ale ACR nie może przekroczyć PCR. Jeżeli źródło otrzyma backward RM z NI=1 nie powinno zwiększać wartości ACR.
  12. Po otrzymaniu backward RM i obliczeniu wartości ACR wg pkt. 8, źródło ustawia wartość ACR jako minimum z wartości ER i wartości ACR wg pkt. 8, ale nie mniejszą niż MCR.
  13. Źródło powinno ustawiać wszystkie wartości komórki RM zgodnie z Tabela 2.
  14. Komórki forward Rm mogą być wysłane jako out-of-rate. (tzn. z inną prędkością niż ACR, CLP=1) z prędkością nie większą niż TCR.
  15. Źródło musi wyzerować EFCI dla wszystkich transmitowanych komórek.

Zasady dla urządzenia odbiorczego:

  1. Po otrzymaniu komórki, wartość EFCI powinna być zapamiętana.
  2. Odbiorca powinien zwrócić otrzymaną komórkę forward RM zmieniając: bit DIR z forward na backward, BN=0 a pola CCR, MCR, ER, CI i NI powinny być niezmienione z wyjątkiem:
  3. Jeżeli zachowana wartość EFCI jest ustawiona to CI=1, a wartość EFCI powinna być wyzerowana.
  4. Urządzenie odbiorcze, będące w stanie „wewnętrznego” przeciążenia, może zredukować wartość ER do prędkości jaką może obsłużyć lub/i ustawić CI=1 i NI=1. Odbiorca powinien również wyzerować QL i SN, zachowując wartości tych pól lub ustawić je zgodnie z I.371.
  5. Jeżeli odbiorca otrzyma kolejną ramkę forward RM, a inna „odwrócona” komórka RM czeka na transmisje to:
  6. Zawartość starej komórki może być nadpisana przez nową komórkę
  7. Stara komórka może być wysłana jako out-of-rate lub usunięta.
  8. Nowa komórka musi zostać wysłana.
  9. Niezależnie od wybranego wariantu w pkt. 3, zawartość starszej komórki nie może być wysłana po wysłaniu nowszej komórki.
  10. Urządzenie odbiorcze może wygenerować komórkę backward RM nie mając odebranej komórki forward RM. Prędkość takiej komórki powinna być ograniczona do 10komórek na sekundę, na połączenie. Odbiorca generując tą komórkę ustawia również CI=1 lub NI=1, BN=1 i kierunek na backward. Pozostałe wartości komórki RM powinny być ustawione zgodnie z Tabela 2.
  11. Jeżeli odebrana komórka forward RM ma CLP=1, to wygenerowana na jej podstawie komórka backward może być wysłana jako in-rate lub out-of-rate.
  12. „odwrócenie” odnosi się do procesu wygenerowania komórki backward RM jak odpowiedzi na otrzymaną komórkę forward RM

Sieciowy system operacyjny

praca napisana prawie dwadzieścia lat temu

Sieciowy system operacyjny na którym zbudowana jest sieć w ZAP S.A. Ostrów Wlkp. to produkt firmy NOVELL – NetWare 4.11 dla 100 użytkowników. Doskonale nadaje się dla małej i średniej wielkości firm oraz zespołów roboczych w dużych przedsiębiorstwach. System NetWare oferuje usługi, dzięki którym serwer jest wydajniejszy od serwerów obsługiwanych przez inne systemy operacyjne. Cechą NetWare 4.11 jest wyposażenie go we wszechstronne mechanizmy obsługi bazy danych o wszelkich zasobach i obiektach sieci. System obsługi tej bazy nazywa się NDS (NetWare Directory Services), a jej zasadniczą funkcją jest zorganizowanie dostępu do informacji o wszelkich obiektach w sieci globalnej (serwery, użytkownicy, grupy, drukarki, woluminy itd.) i kontrolowanie wzajemnej zależności tych obiektów. NDS kontroluje procesy sprawdzania tożsamości, dostępu do zasobów, zarządzania partycjami, emuluje bindery, wykonuje operacje rozproszone. Użytkownik widzi sieć jako jeden organizm i nie musi znać jej struktury, ani lokalizacji zasobów. Usługi bazy obiektowej NDS są sercem NetWere 4.11. Charakterystyka tego systemu zawiera wiele cech bardzo atrakcyjnych dla użytkownika np.

  • kompresja danych przechowywanych na dyskach z indywidualnym traktowaniem plików, w zależności od ich zawartości, częstości dostępu i parametrów ustawianych przez administratora, przeciętny współczynnik kompresji wynosi około 2:1, a maksymalny sięga 2.7:1, kompresja jest zadaniem o niskim priorytecie i jest wykonywana wtedy, gdy nie ma do obsłużenia innych zadań,
  • migracja danych przechowywanych na dysku na wolniejsze, lecz bardziej pojemne media; istotą migracji jest fakt, że odbywa się on automatycznie bez interwencji operatora, mechanizm migracji oparty jest na systemie obsługi wielkich pamięci zewnętrznych HCSS, przeznaczony głównie do współpracy z optycznymi bibliotekami danych,
  • system bezpieczeństwa; posiadający system kontroli i rejestracji zdarzeń,
    a także przeprowadzający unikalne sprawdzenie tożsamości użytkowników w trakcie ich dostępu do poszczególnych zasobów sieci, zawiera wiele narzędzi kontroli poziomów plików, usług katalogowych, administrowania i dostępu do serwera,
  • wprowadzenie graficznego środowiska dla sieciowych programów usługowych; mamy do wyboru programy z interfejsem znakowym pod DOS lub programy graficzne przeznaczone dla środowisk Windows i OS/2,
  • usługi drukowania; serwer drukarkowy potrafi obsłużyć do 256 drukarek, odwoływanie się tylko do nazw drukarek, dostarcza proste graficzne narzędzia drukowania,
  • archiwizacja danych; zawiera usługi zarządzania pamięciami zewnętrznymi
    o nazwie SMS (Storage Management Services), które charakteryzuje niezależność sprzętowa i programowa oraz wspólny format danych dla różnego typu urządzeń pamięciowych,
  • routing wieloprotokołowy, wbudowano usługi routingu, włączając w to możliwości obsługi protokołów IPX, TCP/IP i Apple Talk, zawarto także wiele rozszerzonych możliwości dostępu do lokalnych i rozległych systemów sieciowych,
  • zarządzanie systemem, zapewnia doskonałe narzędzia i możliwości zarządzania i administracją siecią, wewnętrzna struktura systemu zawiera wbudowane mechanizmy związane z zarządzaniem,
  • obsługa języków narodowych i elektroniczna dokumentacja.

W NetWare 4.11 zastosowano alokację ułamkową bloków pamięci, która automatycznie dokonuje podziału nie w pełni wykorzystanych bloków na mniejsze jednostki po 512 bajtów.

System współpracuje z rodzinami protokołów XNS, TCP/IP, OSI i SNA. NetWare 4.11 jest wyposażony w wiele funkcji zarządzania siecią a dostęp do nich można uzyskać ze zdalnych stacji sieci (współpraca z protokołem zarządzania SNMP) oraz elementy sztucznej inteligencji. Dzięki obserwowaniu liczby użytkowników korzystających z danego programu aplikacyjnego, system może adaptować swoje działanie, gdy liczba użytkowników spada, system ogranicza wielkość pamięci typu cache dla obsługi danej aplikacji. System zapewnia możliwość korzystania ze CD-ROM, automatycznie konfiguruje pamięć serwera, funkcja EFS sprawia, że pliki usunięte przez użytkowników są przechowywane na dysku serwera tak długo, póki jest wolne miejsce.

Decyzyjne modelowanie matematyczne systemu eksploatacji

Ogólna koncepcja modelowania systemu eksploatacji została przedstawiona w rozdziałach poprzednich. W rozdziale tym rozbudowano tę koncepcję przede wszystkim na podstawie wniosków wynikających z rozważań dotyczących prakseologicznego ciągu systemów [14].

Typowy schemat sytuacji matematycznego modelowania decyzyjnego przedstawiono na rys. 5.4.

Zgodnie z przedstawionym na rys. 5.4. schematem, budując matematyczny model decyzyjny wybranego systemu należącego do ciągu prakseologicznego należy uprzednio:

  • wybrać zasadę racjonalności, na podstawie której ustalimy kryterium modelu,
  • określić intuicję potrzeb, dla których model jest budowany (umożliwi to nam określenie dziedziny modelu, jego relacji założeń oraz najbardziej istotnego problemu decyzyjnego).
  • ustalić istotne parametry systemu oraz założenia metamodelowe (do założeń metamodelowych zaliczymy w szczególności te, zgodnie z którymi modelowany system traktujemy deterministycznie, stochastycznie lub growo).

Rys.5.4. Schemat sytuacji matematycznego modelowania decyzyjnego [14]

Koncepcję modelowania systemu przedstawioną na rys. 5.4. możemy zrealizować tylko wtedy, gdy poszczególne bloki tego schematu zostaną uprzednio wypełnione. Poniżej przedstawiona jest koncepcja wykorzystania do tego celu właściwości prakseologicznego ciągu systemów [14].

Niech będzie dany prakseologiczny ciąg systemów, którego fragment przedstawiono na rys. 5.5. Niech system Si, należący do tego ciągu, będzie tym systemem, dla którego mamy zbudować MMD. Bezpośrednie otoczenie systemowe systemu Si, niech stanowią systemy Si-1 oraz Si+1. Przyjmijmy, że z punktu widzenia modelowania systemu Si każdy z tych systemów charakteryzuje się zbiorem istotnych parametrów odpowiednio Xi, Xi-1 oraz Xi+1.

Rys. 5.5. Modelowany system oraz systemy ograniczające go

 

Koncepcję blokowego formułowania problemu decyzyjnego dotyczącego modelowania systemu Si można przyjąć w postaci następującej. Wyznaczyć takie X*i które spełni warunki:

1) Gi,i-1(Xi, Xi-1, Xi+1), miara jakości (kryterium);

2) Gi-1(Xi-1, Xi), ograniczenia potrzeb;

3) Hi+1(Xi+1, Xi), ograniczenia możliwości;

4) Mi(Xi, Xi-1, Xi+1) ograniczenia wewnętrzne.

Uwagi do przedstawionego schematu blokowego problemu decyzyjnego są następujące:

1) Miarę (wskaźnik) jakości albo kryterium podejmowania decyzji dla systemu modelowanego ustala się zawsze z punktu widzenia systemu za­bezpieczanego przez system modelowany.

2) Zbiór rozwiązań definiują ograniczenia przyjęte w modelu. Mogą to być ograniczenia tylko trojakiego rodzaju: kumulowane ograniczenia od systemu poprzedzającego w ciągu system modelowany, kumulowane ograniczenia od systemu następującego w ciągu po systemie modelowanym oraz ograniczenia wewnętrzne systemu modelowanego.

3) Wyróżnione kryterium jakości podejmowanych decyzji (1)  oraz ograniczenia (2), (3) i (4) są blokami problemu decyzyjnego.

4) Istotnym etapem modelowania decyzyjnego systemów eksploatacji powinno być blokowe formułowanie problemów decyzyjnych.

Z tego, co powyżej stwierdzono, można wyciągnąć praktyczne wnioski dotyczące poszukiwania zasad racjonalności, intuicji potrzeb oraz parametrów modelowanego systemu. Pozostaje jeszcze zaproponować koncepcję przyjmowania tzw. założeń metamodelowych. Założenia te dotyczą w praktyce zależności modelowanego systemu od czasu, od losu i od sytuacji decyzyjnej.

Przyjmując, że model systemu jest deterministyczny, zakładamy, iż wszyscy utajeni kierownicy tego systemu nie zakłócają rzeczywistego procesu kierowania.

Przyjmując, że wszyscy kierownicy systemu są zgodni, zakładamy, że nie działają oni w sytuacji growej.

Przyjmując, że właściwości modelowanego systemu nie zmieniają się z czasem oraz że kierowanie tym systemem nic zależy od czasu, zakładamy, iż wszystko dzieje się statycznie.

Tymczasem rzeczywisty system eksploatacji nie jest ani statyczny, ani deterministyczny, ani bezkonfliktowy. Dlatego też trzeba ze szczególną uwagą przyjmować wyróżnione tu założenia metamodelowe.

Dla przypadku, gdy problem decyzyjny dotyczy optymalizacji parametrów wybranego systemu kierowania, dokonuje się tzw. rozwinięcia prakseologicznego struktury kierowania tego systemu. Rozwinięcie to polega na tym, że dla systemu SK ustalamy jego bezpośrednie otoczenie systemowe składające się z systemu nadrzędnego SN i systemu roboczego SR. W każdym z tych systemów określamy zbiory istotnych parametrów wpływających na wartość wskaźnika jakości systemu optymalizowanego (rys. 5.6.) [14].

Rys. 5.6. Rozwinięcie prakseologiczne struktury systemu kierowania eksploatacją dla potrzeb matematycznego modelowania decyzyjnego [14]

 

Blokowe sformułowanie problemu decyzyjnego w tym przypadku możemy przedstawić następująco:

Wyznaczyć takie X*SK, które spełni następujące warunki:

1) GSRD,SK(X*SK, YSRD, YSRI)= ekstr GSRD,SK (XSK, YSRD, YSRI);

2) GSRD(XSK­, YSRD);

3) HSRI(XSK, YSRI);

4) MSK(XSK, ZSNI, ZSND).

Zauważmy, że warunek (1) definiuje X*SK za pomocą zbioru XSK a warunki (2), (3), (4) definiują zbiór XSK.