Tag Archives: pracy magisterskiej

Aurox Linux

Aurox Linux to spolszczona i odpowiednio zorganizowana, komercyjna dystrybucja otwartego systemu operacyjnego GNU/Linux, zgodna z dystry­bucją firmy Red Hat. Jej założeniem jest prostota instalacji, przyjazność dla użytkownika i przystosowanie do polskich warunków[1] . Realizacja tych zało­żeń dodaje wartość do systemu GNU/Linux i pozwala firmie Aurox stworzyć rynek dla swoich usług.

System GNU/Linux i jego niekomercyjne dystrybucje są przeznaczone przede wszystkim dla użytkowników zorientowanych technicznie. Dla inży­nierów i specjalistów w dziedzinie IT[2]. Zwykły użytkownik, chcący używać tego systemu, ma do wyboru albo zatrudnienie administratora, który zain­staluje i dostosuje oprogramowanie do jego potrzeb [24], albo skorzystanie z jednej z komercyjnych dystrybucji, których założeniem jest uproszczenie instalacji i zarządzania systemem operacyjnym. Drugie rozwiązanie pozwala zazwyczaj rozwiązać większość problemów z jakimi można się spotkać przy używaniu komputera,[3] zaś jego koszt, ze względu na zjawisko skali, jest dużo mniejszy niż cena za korzystanie z usług specjalisty.

Model biznesowy na jakim opiera się działalność firmy Aurox jest po­łączeniem modelu dostawcy usług i dostawcy akcesoriów (rozdział 2.6.2 niniejszej pracy magisterskiej). Zara­bia ona na sprzedaży magazynów Linux+ Extra Aurox i Linux w szkole, do których dołączane są aktualne wersje systemu operacyjnego Aurox Linux. W celu zbudowania silnej marki i zdobycia nowych klientów realizowana jest strategia poszerzania rynku (roz. 2.6.3). Firma prowadzi szkolenia, programy certyfikacyjne oraz organizuje konferencje w celu upowszechniania Otwartego Oprogramowania i systemu GNU/Linux. Szczególnie szeroka oferta edukacyj­na jest kierowana do szkół i placówek oświatowych. Wynikiem tego będzie sprzężenie zwrotne, które uczyni markę firmy bardziej rozpoznawalną i do­prowadzi do wzrostu popytu na jej usługi.


[1]Dystrybucja jest także wydawana w innych wersjach językowych w Europie.

[2]Skrót IT oznacza technologię informacyjną i pochodzi od angielskich słów Information Technology.

[3]Wyjątkiem są specjalistyczne wymagania i zaawansowane rozwiązania w rozbudowa­nych systemach informatycznych.

Dyski twarde, budowa i zasada działania

Wstęp, cel i  zakres pracy

Pierwsze komputery jakie powstały miały służyć do obliczeń matematycznych i nie były o wiele bardziej skomplikowane od dzisiejszych kalkulatorów. Sytuacja ta uległa gwałtownej zmianie dzięki pamięciom masowym. Prawdopodobnie to zadecydowało o tym, że komputery zaczęto używać w innych dziedzinach życia, a nie tylko tak jak to było na początku do celów wojskowych.

Pierwsze pamięci masowe mało przypominały te znane nam w dzisiejszych czasach były to bowiem bardzo wolne i zawodne karty i taśmy perforowane opracowane przez firmę IBM w 1952r.

Trzeba było aż czterech lat aby nastąpił kolejny przełom i tak w 1956r. firma ta stworzyła napęd dyskowy IBM 350 RAMAC (Random Access Method for Accounting and Control). Miał on niewielką pojemność bo zaledwie 5 MB i składał się z 50 24-calowych dysków. Za to jednak umożliwiał szybki dostęp do danych bez konieczności przewijania taśmy tak jak to miało miejsce przedtem. Tym samym IBM 350 był zaczątkiem dzisiejszych pamięci masowych umożliwiając jednocześnie zastosowanie go w różnych dziedzinach życia.

Kolejnym problemem z jakim borykali się naukowcy była możliwość zewnętrznego składowania danych, a nie jak w przypadku IBM 350 który był jedynie rozszerzeniem pamięci operacyjnej. Rozwiązanie problemu nastąpiło w roku 1962.

Od tej pory wymienne dyski dawały już możliwość zewnętrznego składowania danych bez ograniczeń pojemności.

Dzisiaj sięgając tamtych czasów trudno sobie wyobrazić komputer bez stacji dyskietek, wymiennych dysków o dużych pojemnościach.

Na początku najpopularniejszą pamięcią masową był magnetofon kasetowy, zaś dyski wymienne (dyskietki) początkowo 5,25 cala i pojemności 160-180 kB były wielkim rarytasem.

W ten sposób z biegiem czasu stacja dyskietek stała się nieodzownym elementem komputera. W początkowym okresie pojemność 360 kB lub1,2 MB dyskietek pięciocalowych a potem 720 KB i 1,44 MB dyskietek trzyipółcalowych była w zupełności wystarczająca.

Poza tym początkowe parametry ówczesnych komputerów takie jak 1 MB pamięci RAM oraz 5-20 MB dysku twardego i mała moc przetwarzania procesorów nie pozwalały na pracę z większymi ilościami danych. Sytuacja ta jednak musiała ulec zmianie gdyż potrzeby i wymagania użytkowników wciąż rosły, a komputery zaczęto używać do coraz to poważniejszych zadań (np. elektroniczne tworzenie publikacji). W ten oto sposób najpierw używano ich do składania tekstów i tworzenia prostej grafiki, aż do momentu umieszczania na nich już nie czarno-białych, a kolorowych zdjęć. Pliki tworzonych podczas skanowania zdjęć tak gwałtownie wzrosły z chwilą wprowadzenia koloru, że pojemność pamięci dysków miały ogromne znaczenie. Jak wielkie wymagania spoczywają  na producentach pamięci masowych możemy bardzo łatwo zaobserwować po ich nowych produktach, których parametry wciąż są podnoszone, a jakość udoskonalana.

Problem przenoszenia danych istniał od momentu powstania komputerów. Wraz z ich szybkim rozwojem , rozwijały się równie szybko wszystkie dziedziny pokrewne. Także wielkość pojemności pamięci masowych rosła wraz z rosnącym zapotrzebowaniem. Wszelkiego rodzaju placówki naukowe, banki, urzędy i inne instytucje musiały i muszą przechowywać olbrzymie ilości informacji, a każdy kolejny rok przynosi im coraz więcej problemów w tym względzie. Głównymi wadami tradycyjnych sposobów archiwizowania danych (papier, mikrofilm, taśma magnetyczna, itd.) są:

  • długi czas potrzebny do odszukania potrzebnych informacji,
  • niska trwałość nośników i ich wrażliwość na różne „przeciwności losu”
  • oraz wysoki koszt magazynowania danych,

Ogólnie można powiedzieć, że obecnie mamy dwie, uzupełniające się „szkoły” nowoczesnego gromadzenia i redystrybucji danych w formie elektronicznej. Pierwsza z nich – klasyczna opiera się na tym, że treść wszystkich interesujących nas dokumentów zostaje najpierw przetworzona i zapisana w formacie np. plików tekstowych, arkuszy kalkulacyjnych, itd., a następnie jest indeksowana za pomocą specjalnie do tego celu opracowanych narzędzi. Tak przygotowana postać elektroniczna jest następnie składowana na nośniku trwałym. Opisana metoda jest mało przydatna, gdy zarchiwizowany dokument będzie musiał być kiedyś odtworzony w swej pierwotnej formie. Opracowano więc drugą metodę, zgodnie z którą przechowywane są nie treść lecz obrazy dokumentów. Systemy tego typu noszą nazwę imagingu, a do segregowania i odszukiwania określonych informacji służą w nich bazy danych, w których za pomocą słów kluczowych opisuje się zawartość obrazów dokumentów.

Wszystkie te dokumenty, czy to skanowane czy też trzymane wcześniej w formie elektronicznej trzeba gdzieś trzymać na osobnym miejscu aby w razie awarii istniała możliwość ich odtworzenia. Początkowe archiwizowanie odbywało się na dyskietkach. Pierwsze dyskietki, nazywane wówczas dyskami elastycznymi, miały średnicę 8 cali i 128 KB pojemności. Postęp technologiczny i rosnące wymagania użytkowników sprawiły, że średnica dyskietki z czasem zmniejszyła się do 3,5 cala, a jej pojemność wzrosła do 1,44 MB. Dalszy wzrost pojemności okazał się zbyt trudny i zbyt kosztowny – dyskietki 3,5″, 2,88 MB nie przyjęły się. Jednak ten kilkunastokrotny wzrost pojemności dyskietki nie wystarczył – przebiegająca równolegle ewolucja zastosowań komputerów oraz nowe technologie produkcji oprogramowania sprawiły, że zarówno same programy, jak i użytkowane przez nie dane przybrały objętości, wobec których dyskietka zaczęła stawać się nośnikiem coraz mniej wygodnym i coraz mniej użytecznym. Próby stworzenia taniego nośnika wymiennego o większej pojemności trwały już od wielu lat, ale przez stosunkowo długi okres nie przynosiły one żadnych rozwiązań, które zyskałyby trwałą, powszechną popularność, choć niektóre z nich zrobiły krótkotrwałe kariery.

Pierwszym takim rozwiązaniem był Bernoulli disc firmy Iomega – 10 MB danych można było zapisać na 5,25-calowym krążku magnetycznym, zamkniętym w plastykowym pudełku. Mimo dużej, jak na owe czasy, pojemności i stosunkowo niskiej ceny, rozwiązanie nie przyjęło się szerzej, może zresztą dlatego, że powstało jeszcze w czasach, gdy standardem była dyskietka 5,25″ o pojemności 360 KB i nieco później 1,2 MB, a przeciętna wersja instalacyjna dużego programu nie zawierała więcej niż 5 dyskietek.

Głównym celem, przyświecającym podczas pisania tej pracy była chęć przybliżenia historii, budowy i zasady działania pamięci masowych jakimi są dyski twarde.

W rozdziale pierwszym uwzględniono takie aspekty jak historia dysku twardego, jego budowa fizyczna i logiczna, parametry (pojemność, szybkość, jakość, wydajność) oraz  jego organizacja. W kolejnym rozdziale [niniejszej pracy magisterskiej] omówiono zasadę działania dysku twardego, a następnie jego instalację i konfigurację.  Rozdział piąty dotyczy interfejsów komunikacyjnych. Najpierw opisany jest pierwszy interfejs komunikacyjny czyli ST-506/412, a następnie IDE/ATA oraz SCSI. Następny poświęcony jest użytkowaniu i zasadom postępowania z dyskami twardymi, gdzie zawarto takie zagadnienia jak deinstalacja, defragmentacja, skanowanie oraz porządkowanie dysku. Ostatni rozdział siódmy poświęcony jest pamięciom masowym w przyszłości, czyli wszystko o tym czego możemy spodziewać się na rynku w najbliższym czasie, nowe technologie oraz rozwiązania w tej dziedzinie.