Sklep internetowy

Uwarunkowania ekonomiczne

W czasach gwałtownego rozwoju Internetu, działalność gospodarcza wkracza w nowy etap rozwoju. Nowe możliwości jakie stwarza zasięg działania, powszechność oraz dostępność Internetu inspirują do zainteresowania się rozwojem biznesu na tej platformie. Szczególną dziedziną, w której jest możliwy szybki rozwój i poszerzenie podstawowej i tradycyjnej działalności jest handel, rozumiany zarówno jako wymiana pomiędzy partnerami jak i dostawcami a ich klientami. Rozwój małej i średniej przedsiębiorczości wymaga rozwiązań dostosowanych do potrzeb tego segmentu działalności komercyjnej. Rynek ten w krajach Unii Europejskiej czy też w Stanach Zjednoczonych jest określany jako SOHO (Small Office Home Office).

Podstawowym kryterium jest tu wielkość firmy, różnie rozumiana, często jako ilość zatrudnionych pracowników czy też wielkość generowanych przychodów, obrotów itp. Jedyną różnicą pomiędzy Polską a innymi krajami Europy Zachodniej jest właśnie skala według której następuje segmentacja. W Polsce przyjmuje się że średniej wielkości przedsiębiorstwo zatrudnia ponad dwudziestu pięciu pracowników. Jest to o rząd wielkości mniejsza liczba niż w innych krajach Unii Europejskiej. Analiza potrzeb takich firm wykazała, że podstawowym kryterium wyboru rozwiązań informatycznych wspierających i rozszerzających działalność podstawową są koszty zarówno zakupu, rozwoju jak i utrzymania systemów, oprogramowania i administracji. Społeczność internetowa jednoznacznie wykazuje ogromne zainteresowanie rozwojem oprogramowania i systemów OpenSource (opensource.org) zarówno opartych na licencji GNU GPL jak i BSD. Teksty tych dokumentów umieszczone są pod adresem opensource.org/1icenses

Przykładem systemów OpenSource jest np. Linux czy wiele innego doskonałego oprogramowania określanego wspólną nazwą GNU. Kolejnym elementem jest także cała rodzina Unix’owych sieciowych systemów operacyjnych *BSD takich jak FreeBSD (freebsd.org). NetBSD (netbsd.org). OpenBSD (openbsd.org). baz danych takich jak PostgreSQL (postgresq1.org), języków programowania jak PHP (php.net) i innych. Tendencje te ostatnio znalazły poparcie u „wielkich” rynku informatycznego. Sun wykupił i udostępnił na licencji GNU pakiet biurowy StarOffice, IBM przeniósł Linux’a na swoje platformy mainframe, Borland stworzył środowisko Delphi/Kylix do budowy uniwersalnych aplikacji dla środowiska Windows/Linux oraz udostępnił bazę InterBase itp. Powstała organizacja Free Software Foundation (fsf.org) wspierająca ten „ruch” w kierunku dalszego upowszechniania i popularyzowania tego trendu. Bazując na osiągnięciach społeczności internetowej w tej dziedzinie za podstawę realizacji systemu umożliwiającego małym i średnim firmom wkroczenie sferę e-biznesu przyjęto systemy bazujące na tego typu oprogramowaniu.

Podsumowaniem całości kodu jest fragment obsługujący przyjęcie i zrealizowanie zamówienia. W obecnym stadium rozwoju sklepu jest to realizowane poprzez wysłanie przyjętych informacji pocztą email do obsługującego pracownika. Trwają prace nad skonstruowaniem wygodnego i sprawnego w działaniu „koszyka” obsługującego komplet czynności związanych z realizacją zamówień. Obecnie wykorzystywany formularz także jest generowany dynamicznie przez skrypt napisany w PHP. Dane wprowadzane do formularza są sprawdzane. Testowane jest wypełnienie wymaganych pól, niezbędnych do podjęcia dalszych działań związanych z realizacja zamówienia.

Struktura bazy

Poniższe zestawienie jest wynikiem działania skryptu „99-struktura” generującego schematyczną i poglądową prezentację struktury tabel i przynależnych im indeksów w bazie danych eMarket. Listing ten prezentuje stan bazy po wykonaniu pełnego załadunku wszystkich tabel oraz wykonaniu skryptów aktualizujących i czyszczących.

Poniższy rysunek przedstawia proces wprowadzania danych na stronie formularza, tuż po wybraniu odnośnika ukrytego pod postacią ikony koszyka sklepowego.

Rysunek 10 — Formularz realizacji zamówienia.

Całość realizowanych działań związanych ze złożeniem zamówienia wykonuje poniższy kod.

Popularne sieciowe systemy operacyjne

praca dyplomowa z początku wieku

Każda, nawet najlepiej zaprojektowana i wykonana sieć nie będzie działała bez zastosowania jednego z wielu dostępnych obecnie sieciowych systemów operacyjnych, które stanowią podstawę działania serwerów.

Do zadań sieciowych systemów operacyjnych należy udostępnianie w sieci plików i katalogów, wspólnych drukarek, modemów, zmieniaczy płyt CD-ROM, aplikacji oraz baz danych. Korzystanie z poszczególnych zasobów jest zwykle regulowane przez nadanie użytkownikom i stacjom roboczym odpowiednich praw dostępu. Ponadto system sieciowy powinien zapewniać możliwość porozumiewania się użytkowników ze sobą oraz pozwalać na korzystanie z usług internetowych, przy zapewnieniu bezpieczeństwa zasobów lokalnych.

Zadania te są wypełniane przez różne systemy w różny sposób i na rozmaitym poziomie. Dobór najbardziej odpowiedniego zależy od charakteru zastosowań, którym będzie służyła dana sieć lokalna, a także od jej wielkości, mierzonej liczbą serwerów i stacji roboczych.

Do najbardziej znanych należą: NetWare firmy Novell, Windows NT Server Microsoftu oraz Linux należący do rodziny systemów UNIX-owych.

UNIX

Jest to system najstarszy i najtrudniejszy do opanowania, a jednocześnie oferujący ogromne możliwości konfiguracyjne, bardzo wysoki poziom zabezpieczeń przed nieautoryzowanym dostępem do zasobów sieci oraz niespotykaną w innych systemach stabilność pracy. Jest powszechnie stosowany na serwerach internetowych. Pracuje on w trybie znakowym czyli tak jak znany chyba wszystkim Microsoft DOS. Jest przeznaczony wyłącznie dla sieci Client-Server.

UNIX zaprojektowany jest pod kątem obsługi dużych serwerów. Ma wbudowane mechanizmy do pracy w sieci, jest wielozadaniowy (wykonuje wiele programów jednocześnie) i wielodostępny (wielu użytkowników na raz). W instalacjach sieciowych bazujących na platformie UNIX-owej realizuje się współdzielenie zasobów dyskowych i urządzeń peryferyjnych, obsługę wielu zaawansowanych aplikacji o architekturze klient-serwer. System może być wyposażony w narzędzia bezpieczeństwa – od haseł użytkowników i sterowanych praw dostępu do zasobów, po szyfrowane kanały komunikacyjne, w których przesyłane przez łącza sieciowe dane są kodowane przed wysłaniem przez jeden z komputerów i dekodowane po odebraniu przez drugi, co zapobiega „podsłuchiwaniu” przez hackerów.

UNIX sprzedawany jest zazwyczaj wraz z komputerami, często w ramach całościowej instalacji sieciowej „pod klucz”. Służy wówczas do obsługi sieci i aplikacji typu bazy danych. Najbardziej znane oprogramowanie obsługujące bazy danych w architekturze klient-serwer, jak na przykład produkty firm Oracle czy Informix, posiada implementację na wszystkie platformy UNIX-owe. Pod kontrolą UNIX-a pracują zwykłe pecety oraz najpotężniejsze na świecie, wieloprocesorowe superkomputery.

UNIX jest standardowo wyposażony w narzędzia komunikacyjne, a jego włączenie do sieci jest stosunkowo proste, przy czym nie ma znaczenia czy jest to sieć lokalna, czy Internet. Administrator UNIX-a musi posiąść sporą porcję wiedzy o systemie. Specyfika poszczególnych odmian UNIX-a, zwłaszcza na poziomie zaawansowanych narzędzi do zarządzania powoduje, że niemal każdej odmiany systemu trzeba się osobno nauczyć.

Sieci oparte na serwerach UNIX-owych stosowane są w dużych, bogatych firmach i instytucjach. W wersjach komercyjnych są to rozwiązania kosztowne. Jednak UNIX potrafi efektywnie wykorzystać moc i szybkość przetwarzania silnych maszyn, zaś serwery oferują wysoką stabilność i niezawodność pracy, co ma istotne znaczenie w niektórych zastosowaniach.

Linux

Młodszy „brat” UNIX’a. Oferuje bardzo zbliżone możliwości, a jednocześnie jest o wiele łatwiejszy w obsłudze i konfiguracji. Został zaprojektowany przez jednego ze studentów informatyki na uniwersytecie w Oslo – Linusa Torvaldsa, który opublikował rezultaty swojej pracy w Internecie i udostępnił kod źródłowy systemu wszystkim zainteresowanym jego dalszą rozbudową. Dzięki temu Linux stał się najszybciej i najczęściej aktualizowanym systemem operacyjnym na świecie. Jego wersja instalacyjna jest legalnie dostępna w Internecie całkowicie za darmo (pomijając koszt pobrania kilkudziesięciu MB).

Tak jak UNIX, Linux znany jest z wysokiej niezawodności i stabilności pracy. Jest systemem wieloużytkownikowym i wielozadaniowym. Na pojedynczym serwerze może, za pomocą terminali, pracować wielu użytkowników. System autoryzacji, sterowanie dostępem za pośrednictwem nadawanych praw, szyfrowanie zdalnych transmisji sprawiają, że poprawnie skonfigurowany system zapewnia bardzo wysoki stopień ochrony danych. Dodatkowo system szczelnego izolowania wykonywanych na serwerze zadań sprawia, że nawet przy znacznej ilości pracujących jednocześnie użytkowników Linux pracuje niezwykle stabilnie.

Linux jest oprogramowaniem darmowym, rozprowadzanym na zasadzie licencji GPL (General Public License). Oznacza to, że do wersji wykonywalnych dołączone są pliki źródłowe i każdy, jeśli oczywiście potrafi, może sobie w dowolny sposób zmodyfikować każdą aplikację. Do funkcjonowania systemu oraz wygodnej pracy potrzebne są programy użytkowe, aplikacje dla serwera i interfejs graficzny X Window. Wszystkie te elementy zebrane razem i tworzące działającą wersję nazywa się dystrybucją. Jest wiele dystrybucji Linuxa (co najmniej kilkanaście), z czego najważniejsze to: RedHat, S.u.S.e., Slackware, Debian i Caldera.

W okresie początków Linuxa w Polsce najczęściej używaną jego wersją była dys­trybucja Slackware. Jednak jej znaczenie w dniu dzisiejszym spadło. Obecnie obser­wujemy dwa przeciwstawne kierunki roz­wojowe. Z jednej strony istnieją dystrybu­cje zorientowane komercyjnie, mające zdobyć część rynku systemów UNIX-owych. Ciągle są one dużo tańsze niż renomowa­ne produkty, a jednocześnie porównywal­ne pod względem funkcjonalności. Do­datkowo dzięki zastosowaniu jądra (ang. Kernel) Linu­xa działają one na prawie każdym sprzęcie PC oraz nie wymagają zbyt wielu zaso­bów systemowych. Najlepszym przykła­dem tego kierunku są dystrybucje firmy Caldera.

Na przeciwległym końcu znajdują się pakiety bezpłatne, będące efektem pracy programistów, którzy w ten sposób chcą propagować ideę bezpłatnego oprogra­mowania. Tworzą oni dystrybucje nieko­mercyjne, które służą głównie idei szero­kiego rozpowszechnienia Linuxa. Wśród nich na pierwszym miejscu należy wymie­nić dystrybucję Debian GNU/Linux oraz Red Hat.

Zastosowa­nie maszyny linuksowej jako serwera, oprócz bardzo dobrej stabilności tego systemu, ma tę dodatkową zaletę, że zwalnia nas z konieczności kupowania drogiego, specjalistycznego oprogramowania. Większość potrzebnego w tego typu za­stosowaniach software’u wchodzi bo­wiem w skład dystrybucji Linuxa.

Przeznaczony wyłącznie dla sieci Client-Server.

Novell NetWare

Produkt firmy Novell Incorporated. Oferuje wysoki poziom stabilności pracy i bezpieczeństwa. System Novell NetWare jest obecnie najpopularniejszym systemem sieciowym dla małych, średnich i dużych przedsiębiorstw. Oferuje bardzo duże możliwości zarządzania zasobami sieci powiązane z rewelacyjną wydajnością. Obsługuje systemy wieloprocesorowe co pozwala administratorom na budowę centralnych baz danych bez poświęcania wydajności sieci na rzecz łatwego dostępu do danych.

Pracujący na dedykowanym serwerze Novell NetWare (w wersji od 4.11) oferuje, oprócz tradycyjnych usług w rodzaju współdzielenia plików czy drukarek, także inne, jak routing (dostarczanie danych przez sieć do miejsca przeznaczenia po najlepszej drodze), zarządzanie siecią, zintegrowaną obsługę TCP/IP oraz publikowanie w Internecie (udostępnianie informacji w postaci stron WWW). Zapewnia przy tym ochronę bezpieczeństwa pracy i zasobów użytkowników na wysokim poziomie. Mechanizmy NDS (Novell Directory Services) ułatwiają bezpośredni, szybki dostęp do zasobów sieci bez względu na ich lokalizację. Natomiast rozbudowane mechanizmy zabezpieczeń i kontroli pozwalają na zachowanie poufności danych, szczegółowe regulowanie praw dostępu do zasobów sieciowych, monitorowanie użytkowników itp. Serwer NetWare umożliwia także podłączenie bezdyskowych stacji końcowych, które czytają programy startowe bezpośrednio z serwera. Przeznaczony jest wyłącznie dla sieci Client-Server zarówno LAN jak i MAN oraz WAN.

Microsoft Windows NT

Microsoft Windows NT (ang. Windows New Technology) to sieciowy system operacyjny firmy Microsoft, produkowany z myślą o wydajnych komputerach i zastosowaniach w przemyśle. Występuje w dwóch podstawowych wersjach: Workstation i Server. Wersja Workstation przeznaczona jest dla stacji roboczych natomiast wersja Server dla serwerów sieciowych. W systemie Windows NT postawiono przede wszystkim na niezawodność systemu i bezpieczeństwo, oferując sprawdzony i bardzo wygodny interfejs użytkownika pochodzący ze środowiska Microsoft Windows 95 oraz pełną 32-bitowość.

Windows NT Server umożliwia dostęp do systemu operacyjnego i usług aplikacyjnych na podstawie pojedynczej rejestracji (ang. login) użytkownika. Zapewnia wysoki stopień bezpieczeństwa, realizowany według tego samego modelu dla wszystkich usług sieciowych. Z punktu widzenia administratora, zarządzanie użytkownikami, zasobami sieciowymi (prawami dostępu), a także samym systemem i całą siecią odbywa się w sposób wysoce zintegrowany, z jednej konsoli, za pomocą interfejsu graficznego.

System sieciowy Microsoftu może także służyć jako serwer aplikacji – większość używanych na świecie programów komercyjnych, pracujących wcześniej pod innymi systemami, zostało przeniesionych na platformę NT. Ponadto udostępnia on usługi routingowe oraz DNS – serwer nazw domenowych, zapewniając przekład internetowych adresów komputerowych ze „słownych” na „liczbowe” i odwrotnie, na przykład: www.micros.com na 169.123.102.41. Serwer NT umożliwia również zdalne startowanie bezdyskowych stacji roboczych, podobnie jak w Novell NetWare.

Windows NT daje się zintegrować z siecią Novell NetWare oraz UNIX-ową, współpracuje też z systemami Apple Macintosh. Wśród administratorów systemów zdania na temat systemu Microsoftu są jednak podzielone. Niektórzy mówią o szybkim spadaniu wydajności serwera, gdy liczba obsługiwanych przezeń stacji wzrasta powyżej kilkunastu, innym nie podoba się duża „samodzielność” systemu, który sam rozpoznaje sprzęt czy otoczenie sieciowe i stara się skonfigurować wszystko automatycznie, nie zawsze z powodzeniem. Niewątpliwą zaletą Windows NT jest jego spójność i kompatybilność z szeroką gamą działającego wcześniej oprogramowania.

Microsoft Windows 95/98

Oba te systemy są systemami „pseudosieciowymi” gdyż nie oferują praktycznie żadnej formy zabezpieczeń przed niepowołanym dostępem do zasobów sieci i umożliwiają wyłącznie budowę sieci typu Peer-To-Peer. Ponieważ domyślnym protokołem komunikacji sieciowej w Windows 95/98 jest IPX/SPX, system ten współpracuje z serwerami Novell NetWare i Windows NT.

Pozycjonowanie naturalne

Analizę przeprowadzono na dwóch stronach internetowych: czuchaj.blogspot.com i apartamentybiznes.com. Każda z nich pozycjonowana była na cztery różne frazy kluczowe.

Pozycjonowanie polegało na próbie zaciekawienia użytkowników serwisami, tak aby sami Internauci promowali strony. Sami użytkownicy mieli doprowadzić do wypozycjonowania witryn na słowa kluczowe, które były najbardziej powiązane z ich tematyką.

Tabele przedstawiają uśrednione pozycję strony w wynikach wyszukiwania na poszczególne frazy.

Tabela 4 Średnia pozycja w wynikach wyszukiwania dla strony czuchaj.blogspot.com

Słowo kluczowe Średnia pozycja
dane osobowe brak w wynikach
ochrona danych osobowych 253
prawo nowoczesnych technologii 1
prawo własności intelektualnej brak w wynikach

Źródło: Opracowanie własne na podstawie wyników w wyszukiwarce google.pl

Z powyższej tabeli wynika, że pozycjonowanie nie przyniosło zamierzonego efektu. Tylko dla jednej frazy strona znalazła się bardzo wysoko w wynikach wyszukiwania. Należy dodać, że frazy „prawo nowoczesnych technologii” i „prawo własności intelektualnej” należą do bardzo prostych fraz do wypozycjonowania. Pozostałe dwie frazy są frazami trudnymi.

Tabela 5 Średnia pozycja w wynikach wyszukiwania dla strony apartamentybiznes.com

Słowo kluczowe Średnia pozycja
apartamenty Kraków 109
apartamenty w Krakowie 298
wynajem apartamentów 12
wynajem mieszkań 67

Źródło: Opracowanie własne na podstawie wyników w wyszukiwarce google.pl

Z powyższej tabeli wynika, że pozycjonowanie nie przyniosło zamierzonego efektu. W tym przypadku okazało się efektywniejsze niż w poprzednim, ale wciąż bardzo dużo brakuje mu do ideału. Tylko jedna fraza osiągnęła pozycję, którą można uznać za dość wysoką. Należy jednak dodać, że wszystkie pozycjonowane frazy należą do fraz trudnych. Podsumowując wyniki pozycjonowania naturalnego można śmiało stwierdzić, że wyniki wskazują na małą skuteczność tego rodzaju pozycjonowania. Zarówno w przypadku pierwszym – łatwych fraz, jak i w przypadku drugim – znacznie trudniejszych fraz badania pokazują nieskuteczność tej metody.

Wnioski z pracy magisterskiej

Zastosowana metodologia zbiorów rozmytych daje możliwości stabilnego przeprowadzania analiz matematycznych dotyczących oceny jakości życia w poszczególnych województwach. Wykorzystanie technologii opisanej w pracy pozwoliło na sprawdzenie poziomu życia w różnych jego aspektach ujętych w kategorie. Z wygenerowanych wykresów można wywnioskować, że najwyższy poziom życia notuje się w województwach: Mazowieckim, Śląskim, Dolnośląskim, Małopolskim, Zachodniopomorskim i Opolskim. Z kolei najniższy poziom życia jest w województwach: Warmińsko-Mazurskim, Podkarpackim, Lubuskim, Kujawsko-Pomorskim.

Należy jednak pamiętać, że uzyskany wynik zależy od kilku czynników:

  • wyboru odpowiednich kryteriów szczegółowych: wybór innych kryteriów mógłby spowodować, że uzyskany wynik różniłby się od otrzymanego,
  • wyboru kryteriów ilościowych i unikanie kryteriów jakościowych: w przypadku kryteriów jakościowych duże znaczenie ma subiektywizm oszacowania, ominięcie tego problemu zwiększyło wiarygodność uzyskanych wyników,
  • uważne sporządzenie macierzy parzystych porównań: prawidłowe
  • oszacowanie co do stopnia ważności poszczególnych spowoduje, że wyliczenie rang będzie bardziej dokładne.

Warto zauważyć, że wykorzystaną metodę można zastosować w wielu dziedzinach np. do oszacowania wartości nieruchomości ,samochodu, do analizy rynku papierów wartościowych, w medycynie do oszacowania stanu zdrowia i w wielu innych dziedzinach.

Algorytmizacja zadania

Schemat blokowy aplikacji

Rysunek 3.1 przedstawia schemat blokowy oprogramowania.

Centralnym punktem oprogramowania jest baza danych, do której przekazywane są dane pobrane z formularzy i wyniki obliczeń, a z której pobierane są dane do prezentacji. Edycja danych kryteriów szczegółowych jak również wyboru funkcji użyteczności oraz macierzy parzystych porównań odbywa się na poziomie interfejsu użytkownika, dane są odczytywane i zapisywane w bazie danych. Przeprowadzanie obliczeń odbywa się poprzez pobranie danych z bazy danych, obliczone wyniki są przesyłane do bazy danych. Wyświetlanie obliczonych danych odbywa się jednostronnie: żadne informacje w tym przypadku nie są wpisywane do bazy danych; w takim trybie przeprowadzane jest wyświetlanie kryteriów globalnych oraz wykresów.

Schemat bazy danych

Rysunek 3.2 przedstawia strukturę bazy danych.

Rys. 3.2. Struktura bazy danych.

Oprogramowanie wykorzystuje bazę danych dBase w wersji III+.

Poniższe tabele przedstawiają strukturę poszczególnych grup.

Tab. 3.1. Struktura grupy Kryteria szczegółowe.

Kryteria szczegółowe

Kategoria

Nazwa pliku

Pola

Zdrowie

b_zdrowie.dbf

województwo, lekarze,

łóżka szpitalne

Finanse

b_finanse.dbf

województwo, środki

trwałe, pkb, dochody

Infrastruktura

b_infra.dbf

województwo, kolej,

drogi, sklepy

Czystość

b_czystosc.dbf

województwo,

oczyszczalnie, emisja

gazów, lesistość

Praca

b_praca.dbf

województwo, pracujący,

bezrobotni, średnia płaca

Przestępczość

b_przest.dbf

województwo,

przestępstwa, wskaźnik

wykrywalności

Tab. 3.2. Struktura grupy Macierze parzystych porównań i współczynniki względnej ważności
kryteriów szczegółowych.

Macierze parzystych porównań i współczynniki względnej ważności kryteriów szczegółowych

Kategoria

Nazwa pliku

Pola

Zdrowie

m_zdrowie.dbf

województwo, lekarze,

łóżka szpitalne, ranga

Finanse

m_finanse.dbf

województwo, środki

trwałe, pkb, dochody,

ranga

Infrastruktura

m_infra.dbf

województwo, kolej,

drogi, sklepy, ranga

Czystość

m_czystosc.dbf

województwo,

oczyszczalnie, emisja gazów, lesistość, ranga

Praca

m_praca.dbf

województwo, pracujący,

bezrobotni, średnia płaca, ranga

Przestępczość

m_przest.dbf

województwo,

przestępstwa, wskaźnik wykrywalności, ranga

Wszystko

m_wszystko.dbf

kategoria, zdrowie,

finanse, infrastruktura,

czystość, praca,

przestępczość, ranga

Tab. 3.3. Struktura grupy Typy funkcji dla kryteriów szczegółowych i ich punkty kluczowe.

Typy funkcji dla kryteriów szczegółowych i ich punkty kluczowe

Kategoria

Nazwa pliku

Pola

Zdrowie

funkcje.dbf

kryterium szczegółowe,

typ funkcji, punkty

kluczowe: X1, X2, X3,

X4

Finanse

Infrastruktura

Czystość

Praca

Przestępczość

Tab. 3.4. Struktura grupy Kryteria globalne.

Kryteria globalne

Kategoria

Nazwa pliku

Pola

Zdrowie

dd_zdrowie.dbf

województwo, DD1,

DD2, DD3

Finanse

dd finanse.dbf

województwo, DD1,

DD2, DD3

Infrastruktura

dd infra.dbf

 

województwo, DD1,

DD2, DD3

Czystość

dd czystosc.dbf

 

województwo, DD1,

DD2, DD3

Praca

dd praca.dbf

 

województwo, DD1,

DD2, DD3

Przestępczość

dd przest.dbf

 

województwo, DD1,

DD2, DD3

Wszystko

dd wszystko.dbf

 

województwo, DD1,

DD2, DD3

Popularne protokoły transmisji

Poszczególne węzły sieci komunikują się pomiędzy sobą nadając informacje według określonych zasad zwanych protokołami. Główne cele i model realizacji funkcji sieciowych OSI (Open Systems Interconnection) zostały zdefiniowany przez organizację standaryzacyjną ISO (International Standard Organization). Definiuje on m.in. grupę protokołów służących do komunikacji sieciowej i międzysieciowej.

Obecnie na rynku sieciowym stosuje się bardzo wiele protokołów transmisji, nie zawsze zgodnych z zaleceniami ISO, lecz ich szerokie rozpowszechnienie zdecydowało o uznaniu ich za standardy sieciowe. Do protokółów tych należą między innymi:

  • NetBEUI (NetBIOS Extended User Interface) – opracowany w 1985 r. przez IBM dla małych sieci LAN, obecnie używany w sieciowych systemach operacyjnych Windows NT, Windows 95/98.
  • TCP/IP (Transmission Control Protocol/Internet Protocol)  – protokół początkowo opracowany dla potrzeb i pod kierunkiem Ministerstwa Obrony rządu USA, będący podstawowym protokołem ówczesnej sieci rządowej i edukacyjnej znanej dzisiaj na całym świecie jako Internet. Protokół ten stosowany jest głównie w sieciach opartych na systemie UNIX, lecz także w innych sieciach lokalnych i rozległych. System NetWare 4.11 umożliwia pracę z wykorzystaniem tego protokołu.
  • IPX/SPX (Internet Packet Exchange/Sequential Packet Exchange) – protokół będący implementacją protokołu XNS firmy Xerox dokonaną przez firmę Novell. Znany również jako IP/IPC/SPP firmy Banyan. Jest to podstawowy protokół wykorzystywany w sieciach opartych na systemie Novell NetWare. Protokół ten jest obecnie najpopularniejszym (po TCP/IP) protokołem używanym do transmisji danych w sieci.
  • AppleTalk – protokół zdefiniowany przez firmę Apple. Bardzo rzadko używany, gdyż stosowany jest głównie w sieciach opartych na komputerach firmy Apple (Macintosh, PowerPC).

Linkowanie wewnętrzne, linki javascript

Następnym istotnym narzędziem, które  pozwala na optymalizację strony WWW jest wykorzystanie w opisie odnośników słów kluczowych. Odnośniki te to są to linki, które zawierając opis słowny albo obrazek wstawiony pomiędzy znacznik określający link. Opis słowny (nazwy linków) są bardzo istotne dla stron do jakich prowadzą. Od tego, co za słowo znajdzie się między tymi znacznikami linku będzie zależeć na jakie słowo kluczowe zostanie zindeksowana w wyszukiwarce Google nasza strona.

Linkowanie wewnętrzne

Linki wewnętrzne wpływają na indeksację strony internetowej w wyszukiwarkach. Robot wyszukiwarki odwiedzając serwis przechodzi po wszystkich podstronach, do których umieszczony został odnośnik. Jeśli do którejś z podstron serwisu nie prowadzi link nie zostanie ona zindeksowana przez wyszukiwarkę, ponieważ robot jej nie odwiedzi – nie wie o jej istnieniu.

Zazwyczaj poleca się stosowanie słów kluczowych w tekście między znacznikami <a></a>, który to tekst jest widoczny bezpośrednio na stronie. W dodawaniu linków wewnętrznych ze słowami kluczowymi nie wolno przesadzać. Jedna z tez mówi, że jedna strona może zawierać najwyżej jeden odnośnik prowadzący do innej strony – ale to mało prawdopodobne.

Dzięki specyfikacji języka HTML/XHTML możemy jeszcze bardziej wzmocnić siłę naszego linku. Oprócz zastosowania słów kluczowych w opisie odnośnika możemy dodać dwa atrybuty:

  • title – atrybut zawierający dowolny tekstu, a pojawiający się po umieszczeniu kursora myszy nad linkiem
  • alt – atrybut pozwalający na wpisanie alternatywnego tekstu dla przeglądarki nie obsługującej grafiki

Poprawne zastosowanie linkowania wewnętrznego to umieszczenie słowa kluczowego zarówno w tytule linka, jak i w jego opisie. Dzięki czemu wartość strony na dane słowo kluczowe wzrośnie.

Linki JavaScript

Trzeba unikać stosowania linków wykorzystujących JavaScript. Taki link nie zostanie zindeksowany przez wyszukiwarki, ponieważ nie wiadomo dokąd prowadzi. Roboty wyszukiwarek nie potrafią obsługiwać tej technologii.

Geolokalizacja

W celu dokładnego określenia wyników wyszukiwania Google używa geolokalizacji. Jest to metoda opracowana przez firmę Google i umożliwia podanie użytkownikowi najlepszych wyników biorąc pod uwagę fakt z jakiego kraju użytkownik korzysta z Internetu.

Zagadnienie geolokalizacji najlepiej jest przedstawić na poniższym przykładzie. Użytkownik z Polski zadaje zapytanie wyszukiwarce google.pl dotyczące frazy „notebook”. Fraza jest słowem ogólnoświatowym. Wyniki jakie powinno zwrócić Google dla powyższego przypadku to tylko polskie strony. Natomiast użytkownik korzystający z wyszukiwarki google.co.uk otrzyma wyniki ze stronami angielskimi.

Do oceny lokalizacji strony wyszukiwarka Google wykorzystuje parametry:

  • lokalizacja linków kierujących do pozycjonowanej strony,
  • język w jakim jest napisana strona,
  • IP strony pozycjonowanej,
  • końcówka domeny, np. pl, com, de, co.uk.

Podstawowe topologie sieci komputerowych

Każda sieć komputerowa musi być zbudowana w oparciu o pewną strukturę, zwaną inaczej topologią. Najpopularniejsze, w zakresie sieci LAN, są topologie: szynowa, pierścieniowa oraz gwiaździsta.

1. Topologia szynowa:

Topologia szynowa – polega ona na przyłączeniu wszystkich komputerów (czyli węzłów) w sieci do tylko jednego kabla, który będzie wspólny dla wszystkich węzłów. Jeśli jakiś węzeł sieci chce nadać informację to wtedy musi podać na jej początku adres odbiorcy. Każdy węzeł odbiera nadaną informację i dekoduje adres zawarty w nagłówku tej wiadomości. Jeśli adres ten jest adresem danego węzła (komputera), to przejmuje on nadawane dane. Jeśli tak nie jest, węzeł (komputer) ignoruje strumień danych w magistrali i oczekuje na kolejną „porcję” informacji albo rozpoczyna nadawanie (w przypadku, gdy  magistrala jest wolna). Topologia szynowa używana jest najczęściej w sieciach Ethernet oraz LocalTalk.

2. Topologia pierścieniowa:

Topologia pierścieniowa polega na tym, że wszystkie węzły sieci tworzą zamknięty pierścień. W sieciach o tej strukturze każdy węzeł przetwarza aktywnie informacje aktualnie znajdujące się w magistrali. Typowym przykładem sieci opartej o topologię pierścieniową jest sieć światłowodowa FDDI. Jedną z odmian topologii pierścieniowej jest pierścień gwiaździsty, stosowany w sieciach Token Ring przez firmę IBM, wykorzystujący tak zwane urządzenia MAU (Multi-station Access Unit). Do urządzeń MAU dołączane są zarówno stacje robocze jak i serwery. Jednostki MAU umożliwiają usunięcie dowolnego węzła z pierścienia, jak również na łączenie wielu jednostek w duży pierścień.

3. Topologia gwiaździsta:

Topologia gwiaździsta polega na tym, że każdy węzeł sieci przyłączony jest własnym przewodem do urządzenia łączącego – tak zwanego koncentratora (ang. HUB). Topologia ta jest wykorzystywana w jednej z odmian sieci Ethernet – tak zwane 10BaseT.

Poza strukturą fizyczną sieci istnieje jeszcze tak zwana topologia logiczna związana z udostępnianiem magistrali (kanału informacyjnego) węzłom należącym do struktury fizycznej. W sieciach mamy do czynienia głównie z kanałami wielopunktowymi, co znaczy, że wiele urządzeń podłączonych jest do tego samego systemu okablowania. W związku z tym konieczne jest stosowanie adresowania urządzeń, aby wyeliminować konflikty pomiędzy nimi.

Podsumowanie pracy magisterskiej

Głównym celem niniejszej pracy było przedstawienie i porównanie, a następnie wybór najskuteczniejszej z czterech metod pozycjonowania stron internetowych w wyszukiwarce Google.

W wyniku przeprowadzonych badań okazało się, że metoda naturalne jest kompletnie nieskuteczna. Wyniki okazały się niezadowalające w każdym z dwóch badanych przypadków. Należy jednak zaznaczyć, że w świecie pozycjonerów znane są strony www, które są znakomicie pozycjonowane dzięki metodzie naturalnej. Są to jednak jednostkowe przypadki i najczęściej dotyczą stron lub portali społecznościowych czyli witryn tworzonych przez samych internautów.

Badania wykazały, że kolejna z metod to znaczy pozycjonowanie przez optymalizację pod kątem wyszukiwarek jest znacznie skuteczniejsza od poprzedniej. Jednak satysfakcjonujące efekty może przynieść tylko w zastosowaniu do fraz prostych do pozycjonowania. To znaczy takich, gdzie nie ma wielu innych witryn www, które są pozycjonowane na te same słowa kluczowe.

Kolejna metoda pozycjonowania, czyli pozycjonowanie nieetyczne, nie było badane na potrzeby tej pracy. Został jedynie pokazany przykład takiego rodzaju pozycjonowania. Biorąc pod uwagę omówiony serwis www nasuwa się jeden wniosek. Strony pozycjonowanie nieetycznie wcześniej czy później zostaną usunięte z indeksu wyszukiwarki, czyli zostanie na nie nałożony tak zwany ban.

Ostatnia z badanych metod, czyli pozycjonowanie właściwe, okazała się na podstawie przeprowadzonych badań bardzo dobrą metodą pozycjonowania. Wszystkie dwa przykłady witryn www, na wszystkie pozycjonowane słowa kluczowe uzyskały zadowalające rezultaty. Frazy znalazły się również w TOP4, które zapewnia 100 procentową klikalność w odnośnik przez użytkowników przeszukujących wyniki wyszukiwania. Warto zaznaczyć, że dotyczyło to zarówno fraz łatwych jak i trudnych do wypozycjonowania.

Jaka jest przyszłość pozycjonowania? Bardzo ciężko to przewidzieć. Możemy tylko przypuszczać, że algorytmy wyszukiwarek będą coraz bardziej „inteligentne”. Przede wszystkim dzięki zastosowaniu w nich elementów sztucznej inteligencji. Co za tym idzie w coraz łatwiejszy sposób wykrywane będzie pozycjonowanie stron. Przed tym przecież bronią się wyszukiwarki. Jednak moje osobiste zdanie jest takie, że każdy algorytm, nawet najbardziej zaawansowany będzie można obejść i to z pewnością wcześniej czy później uda się pozycjonerom.

Wnioski

Na początku pracy została postawiona teza, że pozycjonowanie właściwe jest zdecydowanie najlepszą metodą pozycjonowania witryn www. Po dogłębnej analizie problemu stwierdzono słuszność tego założenia. Badanie wykonane na potrzeby tej pracy jednoznacznie wskazały tę metodę jako optymalną i najbardziej efektywną.

Pozycjonowanie jest jedyną skuteczną metodą dotarcia na czołowe pozycję w wynikach wyszukiwania.

Optymalizacja stron pod kątem wyszukiwarek jest integralną częścią pozycjonowania.

Pozycjonowanie powinno być realizowane przez profesjonalistów w innym przypadku może zakończyć się zbanowaniem strony.