Author Archives: Artur

Informatyzacja ZUS-u

Proces informatyzacji ZUS-u może być przykładem jak nie należy prze­prowadzać takich przedsięwzięć w sektorze administracji publicznej [33].

Wy­nikiem projektu było doprowadzenie niemal do monopolizacji rynku infor­matycznego za pieniądze podatników.[1]

Założeniem było ujednolicenie syste­mu na terenie całego kraju, co w rzeczywistości sprowadziło się do wdroże­nia rozwiązania jednego producenta. Dodatkowo, zawarcie niejasnych umów handlowych,[2] odebrało klientom ZUS-u autonomię i możliwość wyboru oraz wymuszało kupno platformy systemowej zagranicznej firmy Microsoft. Jest to oczywistym pogwałceniem praw podatników, zmuszonych do korzystania z systemu informatycznego, połączonym z niegospodarnością w wydawaniu publicznych funduszy. Powoduje to także odpływ pieniądza za granicę i do­prowadza do zjawiska wykupywania przez polskie społeczeństwo własnych miejsc pracy,[3] stawiając się tym samym na pozycji biednego konsumenta.

Instytucja publiczna, jaką niewątpliwie jest ZUS, powinna mieć na uwa­dze przede wszystkim dobro społeczne. Realizacja tak dużego przedsięwzię­cia stwarza olbrzymie możliwości wpływania na rynek technologii informa­cyjnych w Polsce. Upublicznienie protokołów komunikacyjnych oraz posta­wienie wymogu otwartości projektu, zamiast ujednolicenia systemu i przy­zwolenia na zamknięcie, wywołałoby szereg pozytywnych zjawisk.

Na rynku w ramach swobodnej konkurencji powstałyby aplikacje klienckie służące do rozliczeń z urzędem, o których rozwoju decydowałaby przydatność rynkowa i potrzeby użytkowników. Podatnik posiadałby możliwość wyboru spośród rożnych rozwiązań i różnych platform systemowych, nie byłby zmuszany do kupna programów firmy Microsoft[4] oraz dzięki otwartemu kodu źródłowe­mu, zyskałby autonomię. Dodatkowo, powstałby rynek usług, związanych z tak wdrożonym projektem informatycznym, oparty na wolnej konkuren­cji. W efekcie, publiczne fundusze zostałyby efektywniej rozdysponowane, podatnik otrzymałby lepszy produkt i więcej przywilejów, zaś jego pieniądz pozostałby w kraju i przyczyniłyby się do powstania nowych miejsc pracy. [4] [5]


[1]Pojawił się nieoficjalny, otwarty projekt Janosik (janosik.net), mający na celu dostarczenie użytkownikowi niezależnej aplikacji do rozliczania się z urzędem, działa­jącej na każdej platformie. Jednak z powodu polityki ZUS-u, twórcy programu, nieustannie borykają się z problemami formalno-prawnymi.

[2]Chodzi tu przede wszystkim o zamknięcie protokołów komunikacyjnych w systemie oraz faworyzowanie rozwiązań firmy Microsoft.

[3]Zjawisko nazwane zostało efektem Wal-Marta i jest wynikiem obserwacji wpływu hi­permarketów na lokalne rynki [34].

[4] Jako platformę systemową dla aplikacji klienckiej mógłby zostać wybrany otwarty [5] pozbawiony opłat licencyjnych system GNU/Linux.

Pozyskowanie linków w Internecie

Linki są najważniejszym elementem w procesie pozycjonowania strony internetowej. Nie należy oczywiście rozumieć tego w ten sposób, że im więcej linków tym lepiej. Jednak dobrze dobrane linki do naszej strony www zapewniają wysokie pozycje w wynikach wyszukiwania.

Co jednak oznacza „dobrze dobrane linki”? Które linki są „dobre” i jak je pozyskać? Sposobów pozyskiwania linków jest sporo, zaczynając od tych najlepszych obejmują:

  • zaplecze i strony tematyczne,
  • katalogi stron,
  • presell page,
  • systemy wymiany linków,
  • stopki w forach,
  • księgi gości,
  • płatne linki.

Zaplecze i strony tematyczne

Zaplecze to takie strony, nad którymi mamy kontrolę i możemy umieszczać odnośniki do pozycjonowanych przez nas stron. Zaplecze może być tworzone na dwa sposoby: strona o tematyce ogólnej i strona tematyczna. Na stronie o tematyce ogólnej warto zamieszczać linki do każdych pozycjonowanych przez nas stron. Nie patrząc na to czy strona będąca zapleczem jest np. o garbusach, a pozycjonowana strona jest z branży ubezpieczeń.

Strona tematyczna najczęściej tworzona jest pod konkretną pozycjonowaną przez nas stronę. Przykładem może być strona o gatunkach i sposobie hodowania róż, a pozycjonowana przez nas strona jest z branży kwiaciarskiej. Chodzi tu przede wszystkim o to, aby w tekście na stronie będącej zapleczem tematycznym występowały podobne słowa kluczowe, co na stronie pozycjonowanej.

Budowanie serwisów tematycznych ma wiele zalet. Przede wszystkim najczęściej są to wartościowe strony, które mają dużą szanse na utrzymanie się w indeksie wyszukiwarek. Ponadto można liczyć na wejścia z wyszukiwarek na strony tematyczne, a potem w odpowiedni sposób przekierowywać użytkowników na właściwą, pozycjonowaną stronę.
Przy tworzeniu zaplecza należy pamiętać o kilku zasadach:

  1. Nie powinno się tworzyć dokładnych kopii stron. Każdy serwis powinien mieć unikalną treść (ang.: content).
  2. Wyszukiwarki nie mogą zorientować się, że serwisy mają ze sobą coś wspólnego i są tworzone tylko dlatego aby wzmocnić stronę pozycjonowaną.
  3. Należy przy rejestracji domeny korzystać z usługi prywatności WHOIS. Dzięki temu nie jest widoczny właściciel domeny.
  4. Nie linkujemy wszystkich stron ze sobą. Jest to bardzo często spotykany błąd. Takie działanie nazywamy crosslinking i należy go zdecydowanie unikać.

Katalogi stron

Katalog stron to nic innego jak strona zawierająca spis adresów internetowych zaproponowanych przez użytkowników. Najczęściej katalogi stron podzielone są na kategorie i podkategorie, tak aby można było odpowiednio podzielić wpisy. Najbardziej znanym na świecie katalogiem jest DMOZ (www.dmoz.org). Do najpopularniejszych w Polsce katalogów należą Katalog Onet oraz katalog WP. Jednak w Internecie możemy znaleźć tysiące katalogów stron stworzonych przez samych użytkowników.

Presell page

Presell page, zwane w Polsce pieszczotliwie „precelki” to strony zawierające zbiór unikalnych artykułów na różne tematy. Dodatkowo przy każdym artykule użytkownicy mogą umieścić kilka linków do pozycjonowanej strony. Dzięki unikalnemu i zbliżonemu do tematyki naszej strony artykułowi możemy wiele zyskać w rankingu. Dobrze napisany artykuł jest swoistym połączeniem zaplecza i to tego bardziej wartościowego – tematycznego – z katalogiem stron. W chwili obecnej „precelki” przeżywają wielki bum i stają się jedną z najpopularniejszych form pozyskania linku.

Stopki na forach

Na forach internetowych istnieje możliwość posiadanie sygnaturki. Mogą to być cytaty, obrazki, ale również linki do swoich stron. Powstaje oczywiście pytanie czy takie linki pomagają w pozycjonowaniu. Odpowiedź jest z pewności twierdząca, choć warto zauważyć, że takie linki nie są linkami wartościowymi. Co za tym idzie dzięki takim odnośnikom możemy wypozycjonować frazy mało konkurencyjne.

Księgi gości

Księgi gości jak wskazuje sama nazwa służą do pozostawiania komentarzy użytkowników danej strony internetowej. Z czasem księgi gości odnalazły swoje zastosowanie w pozycjonowaniu jako łatwa forma zdobywania linków do swojej pozycjonowanej strony. Pozyskiwanie takich linków jest jednak bardzo ryzykowny, ponieważ linki w księgach gości są łatwo identyfikowalne przez wyszukiwarki. Co za tym idzie taki link może przynieść odwrotny od zakładanego skutek.

Płatne linki

Popularność pozycjonowania i dodawania linków sprawiła, że wielu właścicieli stron zaczęło zarabiać na sprzedawaniu odnośników. Jeśli osoba pozycjonująca stronę posiada duży budżet kupowanie linków jest dobrym rozwiązanie dla poprawienia pozycji strony w wynikach wyszukiwania. Płatne linki można przecież umieszczać na witrynach powiązanych tematycznie z pozycjonowaną przez nas, a to przyniesie na pewno dobry skutek i podniesienie naszej strony w rankingu.
Podsumowując pozyskiwać linki można na wiele różnych sposobów. Należy jednak pamiętać, które linki są „dobrymi linkami”, a które nie przyniosą nam wiele, a wręcz mogą zaszkodzić pozycjonowanej stronie. Nie ma reguły co do tego ile linków i jakich należy uzyskać aby mieć najlepsze efekty. W pozycjonowaniu stron internetowych  każdy      przypadek wymaga

indywidualnego podejścia. Musimy pamiętać z pewnością o naturalności pozycjonowania. Co za tym idzie pozyskujmy linki z różnych źródeł i starajmy się aby przybywały w odpowiednim czasie i ilości.

Popularne sieciowe systemy operacyjne

praca dyplomowa z początku wieku

Każda, nawet najlepiej zaprojektowana i wykonana sieć nie będzie działała bez zastosowania jednego z wielu dostępnych obecnie sieciowych systemów operacyjnych, które stanowią podstawę działania serwerów.

Do zadań sieciowych systemów operacyjnych należy udostępnianie w sieci plików i katalogów, wspólnych drukarek, modemów, zmieniaczy płyt CD-ROM, aplikacji oraz baz danych. Korzystanie z poszczególnych zasobów jest zwykle regulowane przez nadanie użytkownikom i stacjom roboczym odpowiednich praw dostępu. Ponadto system sieciowy powinien zapewniać możliwość porozumiewania się użytkowników ze sobą oraz pozwalać na korzystanie z usług internetowych, przy zapewnieniu bezpieczeństwa zasobów lokalnych.

Zadania te są wypełniane przez różne systemy w różny sposób i na rozmaitym poziomie. Dobór najbardziej odpowiedniego zależy od charakteru zastosowań, którym będzie służyła dana sieć lokalna, a także od jej wielkości, mierzonej liczbą serwerów i stacji roboczych.

Do najbardziej znanych należą: NetWare firmy Novell, Windows NT Server Microsoftu oraz Linux należący do rodziny systemów UNIX-owych.

UNIX

Jest to system najstarszy i najtrudniejszy do opanowania, a jednocześnie oferujący ogromne możliwości konfiguracyjne, bardzo wysoki poziom zabezpieczeń przed nieautoryzowanym dostępem do zasobów sieci oraz niespotykaną w innych systemach stabilność pracy. Jest powszechnie stosowany na serwerach internetowych. Pracuje on w trybie znakowym czyli tak jak znany chyba wszystkim Microsoft DOS. Jest przeznaczony wyłącznie dla sieci Client-Server.

UNIX zaprojektowany jest pod kątem obsługi dużych serwerów. Ma wbudowane mechanizmy do pracy w sieci, jest wielozadaniowy (wykonuje wiele programów jednocześnie) i wielodostępny (wielu użytkowników na raz). W instalacjach sieciowych bazujących na platformie UNIX-owej realizuje się współdzielenie zasobów dyskowych i urządzeń peryferyjnych, obsługę wielu zaawansowanych aplikacji o architekturze klient-serwer. System może być wyposażony w narzędzia bezpieczeństwa – od haseł użytkowników i sterowanych praw dostępu do zasobów, po szyfrowane kanały komunikacyjne, w których przesyłane przez łącza sieciowe dane są kodowane przed wysłaniem przez jeden z komputerów i dekodowane po odebraniu przez drugi, co zapobiega „podsłuchiwaniu” przez hackerów.

UNIX sprzedawany jest zazwyczaj wraz z komputerami, często w ramach całościowej instalacji sieciowej „pod klucz”. Służy wówczas do obsługi sieci i aplikacji typu bazy danych. Najbardziej znane oprogramowanie obsługujące bazy danych w architekturze klient-serwer, jak na przykład produkty firm Oracle czy Informix, posiada implementację na wszystkie platformy UNIX-owe. Pod kontrolą UNIX-a pracują zwykłe pecety oraz najpotężniejsze na świecie, wieloprocesorowe superkomputery.

UNIX jest standardowo wyposażony w narzędzia komunikacyjne, a jego włączenie do sieci jest stosunkowo proste, przy czym nie ma znaczenia czy jest to sieć lokalna, czy Internet. Administrator UNIX-a musi posiąść sporą porcję wiedzy o systemie. Specyfika poszczególnych odmian UNIX-a, zwłaszcza na poziomie zaawansowanych narzędzi do zarządzania powoduje, że niemal każdej odmiany systemu trzeba się osobno nauczyć.

Sieci oparte na serwerach UNIX-owych stosowane są w dużych, bogatych firmach i instytucjach. W wersjach komercyjnych są to rozwiązania kosztowne. Jednak UNIX potrafi efektywnie wykorzystać moc i szybkość przetwarzania silnych maszyn, zaś serwery oferują wysoką stabilność i niezawodność pracy, co ma istotne znaczenie w niektórych zastosowaniach.

Linux

Młodszy „brat” UNIX’a. Oferuje bardzo zbliżone możliwości, a jednocześnie jest o wiele łatwiejszy w obsłudze i konfiguracji. Został zaprojektowany przez jednego ze studentów informatyki na uniwersytecie w Oslo – Linusa Torvaldsa, który opublikował rezultaty swojej pracy w Internecie i udostępnił kod źródłowy systemu wszystkim zainteresowanym jego dalszą rozbudową. Dzięki temu Linux stał się najszybciej i najczęściej aktualizowanym systemem operacyjnym na świecie. Jego wersja instalacyjna jest legalnie dostępna w Internecie całkowicie za darmo (pomijając koszt pobrania kilkudziesięciu MB).

Tak jak UNIX, Linux znany jest z wysokiej niezawodności i stabilności pracy. Jest systemem wieloużytkownikowym i wielozadaniowym. Na pojedynczym serwerze może, za pomocą terminali, pracować wielu użytkowników. System autoryzacji, sterowanie dostępem za pośrednictwem nadawanych praw, szyfrowanie zdalnych transmisji sprawiają, że poprawnie skonfigurowany system zapewnia bardzo wysoki stopień ochrony danych. Dodatkowo system szczelnego izolowania wykonywanych na serwerze zadań sprawia, że nawet przy znacznej ilości pracujących jednocześnie użytkowników Linux pracuje niezwykle stabilnie.

Linux jest oprogramowaniem darmowym, rozprowadzanym na zasadzie licencji GPL (General Public License). Oznacza to, że do wersji wykonywalnych dołączone są pliki źródłowe i każdy, jeśli oczywiście potrafi, może sobie w dowolny sposób zmodyfikować każdą aplikację. Do funkcjonowania systemu oraz wygodnej pracy potrzebne są programy użytkowe, aplikacje dla serwera i interfejs graficzny X Window. Wszystkie te elementy zebrane razem i tworzące działającą wersję nazywa się dystrybucją. Jest wiele dystrybucji Linuxa (co najmniej kilkanaście), z czego najważniejsze to: RedHat, S.u.S.e., Slackware, Debian i Caldera.

W okresie początków Linuxa w Polsce najczęściej używaną jego wersją była dys­trybucja Slackware. Jednak jej znaczenie w dniu dzisiejszym spadło. Obecnie obser­wujemy dwa przeciwstawne kierunki roz­wojowe. Z jednej strony istnieją dystrybu­cje zorientowane komercyjnie, mające zdobyć część rynku systemów UNIX-owych. Ciągle są one dużo tańsze niż renomowa­ne produkty, a jednocześnie porównywal­ne pod względem funkcjonalności. Do­datkowo dzięki zastosowaniu jądra (ang. Kernel) Linu­xa działają one na prawie każdym sprzęcie PC oraz nie wymagają zbyt wielu zaso­bów systemowych. Najlepszym przykła­dem tego kierunku są dystrybucje firmy Caldera.

Na przeciwległym końcu znajdują się pakiety bezpłatne, będące efektem pracy programistów, którzy w ten sposób chcą propagować ideę bezpłatnego oprogra­mowania. Tworzą oni dystrybucje nieko­mercyjne, które służą głównie idei szero­kiego rozpowszechnienia Linuxa. Wśród nich na pierwszym miejscu należy wymie­nić dystrybucję Debian GNU/Linux oraz Red Hat.

Zastosowa­nie maszyny linuksowej jako serwera, oprócz bardzo dobrej stabilności tego systemu, ma tę dodatkową zaletę, że zwalnia nas z konieczności kupowania drogiego, specjalistycznego oprogramowania. Większość potrzebnego w tego typu za­stosowaniach software’u wchodzi bo­wiem w skład dystrybucji Linuxa.

Przeznaczony wyłącznie dla sieci Client-Server.

Novell NetWare

Produkt firmy Novell Incorporated. Oferuje wysoki poziom stabilności pracy i bezpieczeństwa. System Novell NetWare jest obecnie najpopularniejszym systemem sieciowym dla małych, średnich i dużych przedsiębiorstw. Oferuje bardzo duże możliwości zarządzania zasobami sieci powiązane z rewelacyjną wydajnością. Obsługuje systemy wieloprocesorowe co pozwala administratorom na budowę centralnych baz danych bez poświęcania wydajności sieci na rzecz łatwego dostępu do danych.

Pracujący na dedykowanym serwerze Novell NetWare (w wersji od 4.11) oferuje, oprócz tradycyjnych usług w rodzaju współdzielenia plików czy drukarek, także inne, jak routing (dostarczanie danych przez sieć do miejsca przeznaczenia po najlepszej drodze), zarządzanie siecią, zintegrowaną obsługę TCP/IP oraz publikowanie w Internecie (udostępnianie informacji w postaci stron WWW). Zapewnia przy tym ochronę bezpieczeństwa pracy i zasobów użytkowników na wysokim poziomie. Mechanizmy NDS (Novell Directory Services) ułatwiają bezpośredni, szybki dostęp do zasobów sieci bez względu na ich lokalizację. Natomiast rozbudowane mechanizmy zabezpieczeń i kontroli pozwalają na zachowanie poufności danych, szczegółowe regulowanie praw dostępu do zasobów sieciowych, monitorowanie użytkowników itp. Serwer NetWare umożliwia także podłączenie bezdyskowych stacji końcowych, które czytają programy startowe bezpośrednio z serwera. Przeznaczony jest wyłącznie dla sieci Client-Server zarówno LAN jak i MAN oraz WAN.

Microsoft Windows NT

Microsoft Windows NT (ang. Windows New Technology) to sieciowy system operacyjny firmy Microsoft, produkowany z myślą o wydajnych komputerach i zastosowaniach w przemyśle. Występuje w dwóch podstawowych wersjach: Workstation i Server. Wersja Workstation przeznaczona jest dla stacji roboczych natomiast wersja Server dla serwerów sieciowych. W systemie Windows NT postawiono przede wszystkim na niezawodność systemu i bezpieczeństwo, oferując sprawdzony i bardzo wygodny interfejs użytkownika pochodzący ze środowiska Microsoft Windows 95 oraz pełną 32-bitowość.

Windows NT Server umożliwia dostęp do systemu operacyjnego i usług aplikacyjnych na podstawie pojedynczej rejestracji (ang. login) użytkownika. Zapewnia wysoki stopień bezpieczeństwa, realizowany według tego samego modelu dla wszystkich usług sieciowych. Z punktu widzenia administratora, zarządzanie użytkownikami, zasobami sieciowymi (prawami dostępu), a także samym systemem i całą siecią odbywa się w sposób wysoce zintegrowany, z jednej konsoli, za pomocą interfejsu graficznego.

System sieciowy Microsoftu może także służyć jako serwer aplikacji – większość używanych na świecie programów komercyjnych, pracujących wcześniej pod innymi systemami, zostało przeniesionych na platformę NT. Ponadto udostępnia on usługi routingowe oraz DNS – serwer nazw domenowych, zapewniając przekład internetowych adresów komputerowych ze „słownych” na „liczbowe” i odwrotnie, na przykład: www.micros.com na 169.123.102.41. Serwer NT umożliwia również zdalne startowanie bezdyskowych stacji roboczych, podobnie jak w Novell NetWare.

Windows NT daje się zintegrować z siecią Novell NetWare oraz UNIX-ową, współpracuje też z systemami Apple Macintosh. Wśród administratorów systemów zdania na temat systemu Microsoftu są jednak podzielone. Niektórzy mówią o szybkim spadaniu wydajności serwera, gdy liczba obsługiwanych przezeń stacji wzrasta powyżej kilkunastu, innym nie podoba się duża „samodzielność” systemu, który sam rozpoznaje sprzęt czy otoczenie sieciowe i stara się skonfigurować wszystko automatycznie, nie zawsze z powodzeniem. Niewątpliwą zaletą Windows NT jest jego spójność i kompatybilność z szeroką gamą działającego wcześniej oprogramowania.

Microsoft Windows 95/98

Oba te systemy są systemami „pseudosieciowymi” gdyż nie oferują praktycznie żadnej formy zabezpieczeń przed niepowołanym dostępem do zasobów sieci i umożliwiają wyłącznie budowę sieci typu Peer-To-Peer. Ponieważ domyślnym protokołem komunikacji sieciowej w Windows 95/98 jest IPX/SPX, system ten współpracuje z serwerami Novell NetWare i Windows NT.

Pozycjonowanie naturalne

Analizę przeprowadzono na dwóch stronach internetowych: czuchaj.blogspot.com i apartamentybiznes.com. Każda z nich pozycjonowana była na cztery różne frazy kluczowe.

Pozycjonowanie polegało na próbie zaciekawienia użytkowników serwisami, tak aby sami Internauci promowali strony. Sami użytkownicy mieli doprowadzić do wypozycjonowania witryn na słowa kluczowe, które były najbardziej powiązane z ich tematyką.

Tabele przedstawiają uśrednione pozycję strony w wynikach wyszukiwania na poszczególne frazy.

Tabela 4 Średnia pozycja w wynikach wyszukiwania dla strony czuchaj.blogspot.com

Słowo kluczowe Średnia pozycja
dane osobowe brak w wynikach
ochrona danych osobowych 253
prawo nowoczesnych technologii 1
prawo własności intelektualnej brak w wynikach

Źródło: Opracowanie własne na podstawie wyników w wyszukiwarce google.pl

Z powyższej tabeli wynika, że pozycjonowanie nie przyniosło zamierzonego efektu. Tylko dla jednej frazy strona znalazła się bardzo wysoko w wynikach wyszukiwania. Należy dodać, że frazy „prawo nowoczesnych technologii” i „prawo własności intelektualnej” należą do bardzo prostych fraz do wypozycjonowania. Pozostałe dwie frazy są frazami trudnymi.

Tabela 5 Średnia pozycja w wynikach wyszukiwania dla strony apartamentybiznes.com

Słowo kluczowe Średnia pozycja
apartamenty Kraków 109
apartamenty w Krakowie 298
wynajem apartamentów 12
wynajem mieszkań 67

Źródło: Opracowanie własne na podstawie wyników w wyszukiwarce google.pl

Z powyższej tabeli wynika, że pozycjonowanie nie przyniosło zamierzonego efektu. W tym przypadku okazało się efektywniejsze niż w poprzednim, ale wciąż bardzo dużo brakuje mu do ideału. Tylko jedna fraza osiągnęła pozycję, którą można uznać za dość wysoką. Należy jednak dodać, że wszystkie pozycjonowane frazy należą do fraz trudnych. Podsumowując wyniki pozycjonowania naturalnego można śmiało stwierdzić, że wyniki wskazują na małą skuteczność tego rodzaju pozycjonowania. Zarówno w przypadku pierwszym – łatwych fraz, jak i w przypadku drugim – znacznie trudniejszych fraz badania pokazują nieskuteczność tej metody.

Popularne protokoły transmisji

Poszczególne węzły sieci komunikują się pomiędzy sobą nadając informacje według określonych zasad zwanych protokołami. Główne cele i model realizacji funkcji sieciowych OSI (Open Systems Interconnection) zostały zdefiniowany przez organizację standaryzacyjną ISO (International Standard Organization). Definiuje on m.in. grupę protokołów służących do komunikacji sieciowej i międzysieciowej.

Obecnie na rynku sieciowym stosuje się bardzo wiele protokołów transmisji, nie zawsze zgodnych z zaleceniami ISO, lecz ich szerokie rozpowszechnienie zdecydowało o uznaniu ich za standardy sieciowe. Do protokółów tych należą między innymi:

  • NetBEUI (NetBIOS Extended User Interface) – opracowany w 1985 r. przez IBM dla małych sieci LAN, obecnie używany w sieciowych systemach operacyjnych Windows NT, Windows 95/98.
  • TCP/IP (Transmission Control Protocol/Internet Protocol)  – protokół początkowo opracowany dla potrzeb i pod kierunkiem Ministerstwa Obrony rządu USA, będący podstawowym protokołem ówczesnej sieci rządowej i edukacyjnej znanej dzisiaj na całym świecie jako Internet. Protokół ten stosowany jest głównie w sieciach opartych na systemie UNIX, lecz także w innych sieciach lokalnych i rozległych. System NetWare 4.11 umożliwia pracę z wykorzystaniem tego protokołu.
  • IPX/SPX (Internet Packet Exchange/Sequential Packet Exchange) – protokół będący implementacją protokołu XNS firmy Xerox dokonaną przez firmę Novell. Znany również jako IP/IPC/SPP firmy Banyan. Jest to podstawowy protokół wykorzystywany w sieciach opartych na systemie Novell NetWare. Protokół ten jest obecnie najpopularniejszym (po TCP/IP) protokołem używanym do transmisji danych w sieci.
  • AppleTalk – protokół zdefiniowany przez firmę Apple. Bardzo rzadko używany, gdyż stosowany jest głównie w sieciach opartych na komputerach firmy Apple (Macintosh, PowerPC).

Geolokalizacja

W celu dokładnego określenia wyników wyszukiwania Google używa geolokalizacji. Jest to metoda opracowana przez firmę Google i umożliwia podanie użytkownikowi najlepszych wyników biorąc pod uwagę fakt z jakiego kraju użytkownik korzysta z Internetu.

Zagadnienie geolokalizacji najlepiej jest przedstawić na poniższym przykładzie. Użytkownik z Polski zadaje zapytanie wyszukiwarce google.pl dotyczące frazy „notebook”. Fraza jest słowem ogólnoświatowym. Wyniki jakie powinno zwrócić Google dla powyższego przypadku to tylko polskie strony. Natomiast użytkownik korzystający z wyszukiwarki google.co.uk otrzyma wyniki ze stronami angielskimi.

Do oceny lokalizacji strony wyszukiwarka Google wykorzystuje parametry:

  • lokalizacja linków kierujących do pozycjonowanej strony,
  • język w jakim jest napisana strona,
  • IP strony pozycjonowanej,
  • końcówka domeny, np. pl, com, de, co.uk.

Podstawowe topologie sieci komputerowych

Każda sieć komputerowa musi być zbudowana w oparciu o pewną strukturę, zwaną inaczej topologią. Najpopularniejsze, w zakresie sieci LAN, są topologie: szynowa, pierścieniowa oraz gwiaździsta.

1. Topologia szynowa:

Topologia szynowa – polega ona na przyłączeniu wszystkich komputerów (czyli węzłów) w sieci do tylko jednego kabla, który będzie wspólny dla wszystkich węzłów. Jeśli jakiś węzeł sieci chce nadać informację to wtedy musi podać na jej początku adres odbiorcy. Każdy węzeł odbiera nadaną informację i dekoduje adres zawarty w nagłówku tej wiadomości. Jeśli adres ten jest adresem danego węzła (komputera), to przejmuje on nadawane dane. Jeśli tak nie jest, węzeł (komputer) ignoruje strumień danych w magistrali i oczekuje na kolejną „porcję” informacji albo rozpoczyna nadawanie (w przypadku, gdy  magistrala jest wolna). Topologia szynowa używana jest najczęściej w sieciach Ethernet oraz LocalTalk.

2. Topologia pierścieniowa:

Topologia pierścieniowa polega na tym, że wszystkie węzły sieci tworzą zamknięty pierścień. W sieciach o tej strukturze każdy węzeł przetwarza aktywnie informacje aktualnie znajdujące się w magistrali. Typowym przykładem sieci opartej o topologię pierścieniową jest sieć światłowodowa FDDI. Jedną z odmian topologii pierścieniowej jest pierścień gwiaździsty, stosowany w sieciach Token Ring przez firmę IBM, wykorzystujący tak zwane urządzenia MAU (Multi-station Access Unit). Do urządzeń MAU dołączane są zarówno stacje robocze jak i serwery. Jednostki MAU umożliwiają usunięcie dowolnego węzła z pierścienia, jak również na łączenie wielu jednostek w duży pierścień.

3. Topologia gwiaździsta:

Topologia gwiaździsta polega na tym, że każdy węzeł sieci przyłączony jest własnym przewodem do urządzenia łączącego – tak zwanego koncentratora (ang. HUB). Topologia ta jest wykorzystywana w jednej z odmian sieci Ethernet – tak zwane 10BaseT.

Poza strukturą fizyczną sieci istnieje jeszcze tak zwana topologia logiczna związana z udostępnianiem magistrali (kanału informacyjnego) węzłom należącym do struktury fizycznej. W sieciach mamy do czynienia głównie z kanałami wielopunktowymi, co znaczy, że wiele urządzeń podłączonych jest do tego samego systemu okablowania. W związku z tym konieczne jest stosowanie adresowania urządzeń, aby wyeliminować konflikty pomiędzy nimi.

Cyber Service

Firma Cyber Service jest jedną z pierwszych firm w Polsce, która oparła swój biznes na otwartym systemie operacyjnym GNU/Linux. Obecnie reali­zuje model dostawcy sprzętu (roz. 2.6.2). Firma zarabia na sprzedaży wy­specjalizowanych komputerów przeznaczonych do pełnienia ściśle określonej funkcji w sieciach komputerowych.

Używanie wyspecjalizowanych urządzeń zmniejsza stopień komplikacji systemu informatycznego i obniża koszty związane z jego utrzymaniem i ob­sługą [18]. Dodatkowo też, zjawisko skali związane z masową produkcją wy- standaryzowanego sprzętu, zmniejsza koszty projektowania i wdrożenia roz­wiązań opartych na tym sprzęcie.

Urządzenia produkowane przez Cyber Service zostały nazwane rodzi­ną OpenBIZ, od nazwy systemu operacyjnego OpenBIZ Linux, pod kon­trolą którego działają. OpenBIZ Linux jest adaptacją oprogramowania GNU/Linux, dokonaną przez firmę na potrzeby produkowanych przez sie­bie urządzeń. Wprowadzenie tych zmian było możliwe dzięki licencji GNU GPL i otwartemu kodu źródłowemu systemu GNU/Linux. Natomiast wysoki poziom technologiczny tego oprogramowania, a przede wszystkim jądra Li- nux, umożliwiło realizację i osiągnięcie postawionych wymagań. Istotna jest też ekonomiczno-prawna konsekwencja użycia oprogramowania na licencji GNU GPL jako platformy systemowej produkowanych urządzeń.

Brak opłat licencyjnych zmniejsza koszt jednostkowy pojedynczego komputera i pozwala uniknąć wszelkich komplikacji prawnych związanych z koniecznością zawiera­nia odpowiednich porozumień handlowych. W przypadku gdyby zastosowano zamknięte rozwiązanie, każde urządzenie obarczone byłoby opłatą licencyjną na rzecz producenta oprogramowania.

Dodatkowo, z powodu niedostępno­ści kodu źródłowego i braku możliwości samodzielnego wprowadzania zmian w takim oprogramowaniu, jego adaptacja na potrzeby produkowanego sprzę­tu musiałaby być wykonywana przez dostawcę oprogramowania. Koszty tego mogłyby być większe, niż w przypadku, gdyby firma samodzielnie dokonywa­ła tych zmian i spowodowałoby to dodatkowy wzrost jednostkowego kosztu produkcji.

W związku z powyższym, wykorzystanie przez firmę Cyber Service otwartego oprogramowania GNU/Linux jako platformy systemowej dla pro­dukowanych przez siebie urządzeń, pozwoliło jej stworzyć bardziej atrakcyjną pod względem cenowym, jak i technologicznym ofertę biznesową.

Podział sieci komputerowych ze względu na zasięg

Sieci komputerowe w zależności od swego przeznaczenia i wykorzystanego do ich budowy sprzętu oraz oprogramowania posiadają różny, maksymalny zasięg. Rozróżniamy następujące rodzaje sieci:

  • LAN – ang. Local Area Network – LAN jest siecią o małym zasięgu. Sieci tego typu obejmują najczęściej jeden budynek lub zespół sąsiadujących ze sobą budynków. Sieci typu LAN charakteryzują się dużą szybkością transmisji, osiągającą Mb/s, bez użycia dodatkowego sprzętu czy oprogramowania. Potoczna nazwa: sieć lokalna
  • MAN – ang. Metropolitan Area Network – MAN jest siecią, która swym zasięgiem może obejmować całe miasto lub nawet zespół sąsiadujących ze sobą miast. Transmisja w sieciach typu MAN często nie ustępuje szybkością sieciom LAN, jednakże w tym przypadku konieczne jest już zastosowanie dodatkowego sprzętu i oprogramowania. Potoczna nazwa: sieć miejska.
  • WAN – ang. Wide Area Network – WAN jest siecią o nieograniczonym zasięgu, mogącą obejmować dowolny region ziemi. Sieci typu WAN nie zachwycają szybkością transmisji, która przeważnie wynosi od kilku kb/s do kilkuset kb/s. Przy komunikacji modemowej jest to od 300 b/s do 56 kb/s, w technologii ISDN max. 128 kb/s. Istnieją również sieci typu WAN oferujące znacznie większe szybkości transmisji (np.: sieć POLPAK) lecz koszty korzystania z nich są poza sferą dostępności przeciętnego użytkownika czy małego przedsiębiorstwa. Przykładem sieci WAN jest Internet. Potoczna nazwa: sieć rozległa lub sieć globalna.

Mb/s – Megabity na sekundę – 1 Mb/s = ok. 122 kB/s (kilobajtów na sekundę)

kb/s – kilobity na sekundę – 1 kb/s = 125 B/s (bajtów na sekundę)

ISDN – Integrated Services Data Network – Sieć danych z integracją usług (cyfrowa).

Aurox Linux

Aurox Linux to spolszczona i odpowiednio zorganizowana, komercyjna dystrybucja otwartego systemu operacyjnego GNU/Linux, zgodna z dystry­bucją firmy Red Hat. Jej założeniem jest prostota instalacji, przyjazność dla użytkownika i przystosowanie do polskich warunków[1] . Realizacja tych zało­żeń dodaje wartość do systemu GNU/Linux i pozwala firmie Aurox stworzyć rynek dla swoich usług.

System GNU/Linux i jego niekomercyjne dystrybucje są przeznaczone przede wszystkim dla użytkowników zorientowanych technicznie. Dla inży­nierów i specjalistów w dziedzinie IT[2]. Zwykły użytkownik, chcący używać tego systemu, ma do wyboru albo zatrudnienie administratora, który zain­staluje i dostosuje oprogramowanie do jego potrzeb [24], albo skorzystanie z jednej z komercyjnych dystrybucji, których założeniem jest uproszczenie instalacji i zarządzania systemem operacyjnym. Drugie rozwiązanie pozwala zazwyczaj rozwiązać większość problemów z jakimi można się spotkać przy używaniu komputera,[3] zaś jego koszt, ze względu na zjawisko skali, jest dużo mniejszy niż cena za korzystanie z usług specjalisty.

Model biznesowy na jakim opiera się działalność firmy Aurox jest po­łączeniem modelu dostawcy usług i dostawcy akcesoriów (rozdział 2.6.2 niniejszej pracy magisterskiej). Zara­bia ona na sprzedaży magazynów Linux+ Extra Aurox i Linux w szkole, do których dołączane są aktualne wersje systemu operacyjnego Aurox Linux. W celu zbudowania silnej marki i zdobycia nowych klientów realizowana jest strategia poszerzania rynku (roz. 2.6.3). Firma prowadzi szkolenia, programy certyfikacyjne oraz organizuje konferencje w celu upowszechniania Otwartego Oprogramowania i systemu GNU/Linux. Szczególnie szeroka oferta edukacyj­na jest kierowana do szkół i placówek oświatowych. Wynikiem tego będzie sprzężenie zwrotne, które uczyni markę firmy bardziej rozpoznawalną i do­prowadzi do wzrostu popytu na jej usługi.


[1]Dystrybucja jest także wydawana w innych wersjach językowych w Europie.

[2]Skrót IT oznacza technologię informacyjną i pochodzi od angielskich słów Information Technology.

[3]Wyjątkiem są specjalistyczne wymagania i zaawansowane rozwiązania w rozbudowa­nych systemach informatycznych.