Button: Add to Cart

Właśnie siedzę nad projektem sklepu internetowego, dla jednego z klientów, i tak mi przyszło do głowy czy znajdę jakieś materiały w Sieci poświęcone widoczności i czytelności przycisku Dodaj do koszyka. I bingo!

107 Add to Cart Buttons of the Top Online Retailers autorstwa Jasona Billingsleya, to galeria ponad stu przycisków z najczęściej odwiedzanych sklepów anglojęzycznych wraz z analizą statystyczną dotyczącą zarówno nazewnictwa (dla przykładu: Add to Cart to najczęściej używana formuła (58%), a Add to My Shopping Cart najrzadziej (0,9%); jak się okazuje sam Amazon używa niezbyt popularnego Add to Shopping Cart (4,5%)), jak i elementów graficznych przycisków (przykładowo ikona koszyka ma zastosowanie w 14,3% przycisków przeanalizowanych przez Billingsleya).

Galerii i analizom towarzyszy krótki tekst autora.

A dlaczego jednolita ikonografia oraz ujednolicone nazewnictwo w ramach ‚dodaj koszyka’ są tak istotne?

Właściwie funkcja ‚dodaj…’ jest tym dla świata e-commerce, czym cut (Wytnij ze swoją ikonką nożyczek) dla świata programów desktop – jest powszechna i często wykorzystywana przez użytkowników. Zidentyfikowanie gdzie się znajduje przycisk ‚dodaj’ w sklepie internetowym oraz zrozumienie funkcji tego przycisku – przy zachowaniu czytelnej formy komunikacji – są jednym z kluczy do sukcesu sklepu.

A może ktoś się pokusi o analizę buttonów w polskich e-sklepach?

***

W ramach tematyki buttonów, lekturę uzupełnią dwa teksty:

  • 7 Rules for Landing Page Optimization (chodzi o punkt 5)
  • i podejmujący ten punkt: Large Red Buttons? Oh My!
  • + dodatkowa galeria przycisków.

PS: A tak a propos sklepów internetowych, czy ktoś zapoznał się już z systemem Magento i ma wyrobioną na jego temat swoją opinię? Będę wdzięczny za komentarze w tej sprawie.

Projektowanie dla seniorów: czcionki

Jak popatrzeć na statystyki, rośnie grupa użytkowników powyżej 40-stego roku życia. Aspekty z projektowaniem rozwiązań dla nich związane są zarówno z przestrzeganiem standardów usability jak i accessibility.

Nie natrafiłem nigdzie w Sieci na opracowanie poświęcone projektowaniu dla osób w podeszłym wieku, więc sam postanowiłem coś w tej mierze napisać. Dzisiaj trochę statystyk i część poświęcona czcionkom.

Statystyki

2005 r.: Najwięcej użytkowników w Internecie to osoby w wieku od 15 do 24 lat, których udział wynosi 44,7%. Kolejną co do wielkości grupą są ludzie w średnim wieku: 25-39 lat. Stanowią oni 31,2% populacji użytkowników. Osoby w podeszłym wieku – od 40 do 59 lat – to 22,1% populacji. I wyniki te zamykają osoby po 60 roku życia z 2% udziałem w grupie [wg badań z września-listopada 2005 MillwardBrown SMG/KRC].

2006 r.: Jak pokazuje poniższa tabelka, wyniki rok później były podobne [badania przeprowadził Interaktywny Instytut Badań Rynkowych, źródło: Megapanel PBI/Gemius, październik 2006].

2007 r.: A oto pokazujące wzrost użytkowników w podeszłym wieku o blisko 5%, wyniki badań z okresu marzec/maj bieżącego roku [NetTrack SMG/KRC, za: IDG].

Czcionki

  • Wielkość czcionki: powszechnie uważa się, że treść zasadnicza powinna mieć wielkość przynajmniej 10 punktów (J. Nielsen & H. Loranger, „Optymalizacja funkcjonalności serwisów internetowych”, Wyd. Helion 2007, s. 247-249; T. Sachs & G. R. McClain, „Podstawy projektowania stron internetowych”, Wyd. Helion 2002, s. 107). Jednak przy tendencji do zwiększającej się rozdzielczości monitorów, na których oglądane są strony WWW, oraz biorąc pod uwagę pogarszający się wzrok osób starszych, jak i fakt, że w późniejszym wieku wzrok szybko się męczy, spokojnie jako standard można przyjąć tekst o wielkości 12 punktów.
  • Szeryfowe czy bezszeryfowe? Co to są szeryfy myślę, że każdy z czytelników UI Design wie, więc nie będę się tutaj wdawał w szczegóły. Osoby, które jednak nie wiedzą odsyłam do artykułu na Wikipedii.

    Powszechna opinia w kwestii stosowania czcionek szeryfowych i bezszeryfowych w Internecie jest taka, że czcionki szeryfowe nie nadają się do czytania z ekranów komputerów, pozostawiając pole do popisu czcionkom bezszeryfowym. To jednak nie jest prawdą.

    Od czasu powstania Internetu dużo się zmieniło. Stosowane kiedyś monitory CRT miały rozdzielczość 72 dpi; aktualnie rozpowszechnione panele LCD mają już rozdzielczość 96 dpi. Co za tym idzie, czcionki wyświetlane na współcześnie stosowanych monitorach są dużo czytelniejsze. Stąd coraz częściej stosuje się w projektach WWW czcionki szeryfowe, których, dzięki podwyższeniu rozdzielczości, czytelność znacznie się poprawiła.
    Co prawda wciąż niektórzy usabiliterzy (Nielsen) radzą wykorzystywać czcionki tylko w nagłówkach (wielkość czcionki 14 punktów i więcej), ale otarłem się gdzieś o opracowanie pokazujące, że z wiekiem zatracają się różnice w czytaniu z ekranów tekstów pisanych czcionką szeryfową i bezszeryfową (tylko źródła tego badania nie mogę sobie przypomnieć), w związku z czym osoby w podeszłym wieku z taką samą sprawnością czytają teksty napisany szeryfami, co bez szeryfów.

    Wygładzanie krawędzi czcionek (antyaliasing): Safari, bodajże jako jedyna przeglądarka internetowa, w zaawansowany sposób obsługuje antyaliasing. Jeśli wygładzanie krawędzi świetnie sprawdza się w przypadku grafiki, to w przypadku tekstu jest już pomyłką! Tekst z wykorzystaniem opcji wygładzania krawędzi jest znacznie mniej czytelny od tekstu bez obsługi antyaliasingu (Por. W. Williard, „Projektowanie stron WWW”, Wyd. Edition 2001, s. 162). Jeśli projektujecie dla użytkowników platformy Apple, miejcie to na uwadze.

  • Obrazki zamiast czcionki: NIE! Dlaczego? Bo użytkownicy z większą wadą wzroku nie będą mieli możliwości powiększenia napisów – wyświetlanie czcionki można powiększyć, obrazków nie. No chyba, że się skorzysta z opcji Zoom w przeglądarkach Opera oraz Internet Explorer 7.

    Inną, bardziej zaawansowaną metodą zastępowania czionek, jest sIFR, czyli Scalable Inman Flash Replacement

  • Punkty, piksele czy emy? Z interpretacją pikseli w ramach formatowania wielkości czcionki, wciąż ma problem Internet Explorer. Twórcy tej przeglądarki uznali, że stosowanie przez programistów WWW rozmiarów w pikselach, związane jest z określaniem przez nich wartości bezwględnych. W związku z tym tekst sformatowany w pikselach nie podlega możliwości powiększenia. Pozostaje formatowanie tekstu w punktach oraz, coraz częściej stosowane, w em-ach (Por. J. Beaird, „Artystyczne projektowanie stron internetowych”, Wyd. Powernet 2007, s. 133-135).
    Nie polecam zaś formatowania czcionek sposobem „kuloodpornym”, zaproponowanym przez Dana Cederholma (D. Cederholm, „Kuloodporne strony internetowe”, Helion 2006), przy pomocy słów kluczowych, takich jak: small, medium, large. Z moich doświadczeń wynika, że ze względu na niejednolitą interpretację znaczników, stosowaną przez różne przeglądarki internetowe, ten sposób zapisu nie sprawdza się (ale o tym przy innej okazji).
  • Kontrast – o tym przy okazji następnej części, w której będę pisał m.in. o kolorach, pamięci, motoryce.

Pozyskowanie linków w Internecie

Linki są najważniejszym elementem w procesie pozycjonowania strony internetowej. Nie należy oczywiście rozumieć tego w ten sposób, że im więcej linków tym lepiej. Jednak dobrze dobrane linki do naszej strony www zapewniają wysokie pozycje w wynikach wyszukiwania.

Co jednak oznacza „dobrze dobrane linki”? Które linki są „dobre” i jak je pozyskać? Sposobów pozyskiwania linków jest sporo, zaczynając od tych najlepszych obejmują:

  • zaplecze i strony tematyczne,
  • katalogi stron,
  • presell page,
  • systemy wymiany linków,
  • stopki w forach,
  • księgi gości,
  • płatne linki.

Zaplecze i strony tematyczne

Zaplecze to takie strony, nad którymi mamy kontrolę i możemy umieszczać odnośniki do pozycjonowanych przez nas stron. Zaplecze może być tworzone na dwa sposoby: strona o tematyce ogólnej i strona tematyczna. Na stronie o tematyce ogólnej warto zamieszczać linki do każdych pozycjonowanych przez nas stron. Nie patrząc na to czy strona będąca zapleczem jest np. o garbusach, a pozycjonowana strona jest z branży ubezpieczeń.

Strona tematyczna najczęściej tworzona jest pod konkretną pozycjonowaną przez nas stronę. Przykładem może być strona o gatunkach i sposobie hodowania róż, a pozycjonowana przez nas strona jest z branży kwiaciarskiej. Chodzi tu przede wszystkim o to, aby w tekście na stronie będącej zapleczem tematycznym występowały podobne słowa kluczowe, co na stronie pozycjonowanej.

Budowanie serwisów tematycznych ma wiele zalet. Przede wszystkim najczęściej są to wartościowe strony, które mają dużą szanse na utrzymanie się w indeksie wyszukiwarek. Ponadto można liczyć na wejścia z wyszukiwarek na strony tematyczne, a potem w odpowiedni sposób przekierowywać użytkowników na właściwą, pozycjonowaną stronę.
Przy tworzeniu zaplecza należy pamiętać o kilku zasadach:

  1. Nie powinno się tworzyć dokładnych kopii stron. Każdy serwis powinien mieć unikalną treść (ang.: content).
  2. Wyszukiwarki nie mogą zorientować się, że serwisy mają ze sobą coś wspólnego i są tworzone tylko dlatego aby wzmocnić stronę pozycjonowaną.
  3. Należy przy rejestracji domeny korzystać z usługi prywatności WHOIS. Dzięki temu nie jest widoczny właściciel domeny.
  4. Nie linkujemy wszystkich stron ze sobą. Jest to bardzo często spotykany błąd. Takie działanie nazywamy crosslinking i należy go zdecydowanie unikać.

Katalogi stron

Katalog stron to nic innego jak strona zawierająca spis adresów internetowych zaproponowanych przez użytkowników. Najczęściej katalogi stron podzielone są na kategorie i podkategorie, tak aby można było odpowiednio podzielić wpisy. Najbardziej znanym na świecie katalogiem jest DMOZ (www.dmoz.org). Do najpopularniejszych w Polsce katalogów należą Katalog Onet oraz katalog WP. Jednak w Internecie możemy znaleźć tysiące katalogów stron stworzonych przez samych użytkowników.

Presell page

Presell page, zwane w Polsce pieszczotliwie „precelki” to strony zawierające zbiór unikalnych artykułów na różne tematy. Dodatkowo przy każdym artykule użytkownicy mogą umieścić kilka linków do pozycjonowanej strony. Dzięki unikalnemu i zbliżonemu do tematyki naszej strony artykułowi możemy wiele zyskać w rankingu. Dobrze napisany artykuł jest swoistym połączeniem zaplecza i to tego bardziej wartościowego – tematycznego – z katalogiem stron. W chwili obecnej „precelki” przeżywają wielki bum i stają się jedną z najpopularniejszych form pozyskania linku.

Stopki na forach

Na forach internetowych istnieje możliwość posiadanie sygnaturki. Mogą to być cytaty, obrazki, ale również linki do swoich stron. Powstaje oczywiście pytanie czy takie linki pomagają w pozycjonowaniu. Odpowiedź jest z pewności twierdząca, choć warto zauważyć, że takie linki nie są linkami wartościowymi. Co za tym idzie dzięki takim odnośnikom możemy wypozycjonować frazy mało konkurencyjne.

Księgi gości

Księgi gości jak wskazuje sama nazwa służą do pozostawiania komentarzy użytkowników danej strony internetowej. Z czasem księgi gości odnalazły swoje zastosowanie w pozycjonowaniu jako łatwa forma zdobywania linków do swojej pozycjonowanej strony. Pozyskiwanie takich linków jest jednak bardzo ryzykowny, ponieważ linki w księgach gości są łatwo identyfikowalne przez wyszukiwarki. Co za tym idzie taki link może przynieść odwrotny od zakładanego skutek.

Płatne linki

Popularność pozycjonowania i dodawania linków sprawiła, że wielu właścicieli stron zaczęło zarabiać na sprzedawaniu odnośników. Jeśli osoba pozycjonująca stronę posiada duży budżet kupowanie linków jest dobrym rozwiązanie dla poprawienia pozycji strony w wynikach wyszukiwania. Płatne linki można przecież umieszczać na witrynach powiązanych tematycznie z pozycjonowaną przez nas, a to przyniesie na pewno dobry skutek i podniesienie naszej strony w rankingu.
Podsumowując pozyskiwać linki można na wiele różnych sposobów. Należy jednak pamiętać, które linki są „dobrymi linkami”, a które nie przyniosą nam wiele, a wręcz mogą zaszkodzić pozycjonowanej stronie. Nie ma reguły co do tego ile linków i jakich należy uzyskać aby mieć najlepsze efekty. W pozycjonowaniu stron internetowych  każdy      przypadek wymaga

indywidualnego podejścia. Musimy pamiętać z pewnością o naturalności pozycjonowania. Co za tym idzie pozyskujmy linki z różnych źródeł i starajmy się aby przybywały w odpowiednim czasie i ilości.

Sklep internetowy

Uwarunkowania ekonomiczne

W czasach gwałtownego rozwoju Internetu, działalność gospodarcza wkracza w nowy etap rozwoju. Nowe możliwości jakie stwarza zasięg działania, powszechność oraz dostępność Internetu inspirują do zainteresowania się rozwojem biznesu na tej platformie. Szczególną dziedziną, w której jest możliwy szybki rozwój i poszerzenie podstawowej i tradycyjnej działalności jest handel, rozumiany zarówno jako wymiana pomiędzy partnerami jak i dostawcami a ich klientami. Rozwój małej i średniej przedsiębiorczości wymaga rozwiązań dostosowanych do potrzeb tego segmentu działalności komercyjnej. Rynek ten w krajach Unii Europejskiej czy też w Stanach Zjednoczonych jest określany jako SOHO (Small Office Home Office).

Podstawowym kryterium jest tu wielkość firmy, różnie rozumiana, często jako ilość zatrudnionych pracowników czy też wielkość generowanych przychodów, obrotów itp. Jedyną różnicą pomiędzy Polską a innymi krajami Europy Zachodniej jest właśnie skala według której następuje segmentacja. W Polsce przyjmuje się że średniej wielkości przedsiębiorstwo zatrudnia ponad dwudziestu pięciu pracowników. Jest to o rząd wielkości mniejsza liczba niż w innych krajach Unii Europejskiej. Analiza potrzeb takich firm wykazała, że podstawowym kryterium wyboru rozwiązań informatycznych wspierających i rozszerzających działalność podstawową są koszty zarówno zakupu, rozwoju jak i utrzymania systemów, oprogramowania i administracji. Społeczność internetowa jednoznacznie wykazuje ogromne zainteresowanie rozwojem oprogramowania i systemów OpenSource (opensource.org) zarówno opartych na licencji GNU GPL jak i BSD. Teksty tych dokumentów umieszczone są pod adresem opensource.org/1icenses

Przykładem systemów OpenSource jest np. Linux czy wiele innego doskonałego oprogramowania określanego wspólną nazwą GNU. Kolejnym elementem jest także cała rodzina Unix’owych sieciowych systemów operacyjnych *BSD takich jak FreeBSD (freebsd.org). NetBSD (netbsd.org). OpenBSD (openbsd.org). baz danych takich jak PostgreSQL (postgresq1.org), języków programowania jak PHP (php.net) i innych. Tendencje te ostatnio znalazły poparcie u „wielkich” rynku informatycznego. Sun wykupił i udostępnił na licencji GNU pakiet biurowy StarOffice, IBM przeniósł Linux’a na swoje platformy mainframe, Borland stworzył środowisko Delphi/Kylix do budowy uniwersalnych aplikacji dla środowiska Windows/Linux oraz udostępnił bazę InterBase itp. Powstała organizacja Free Software Foundation (fsf.org) wspierająca ten „ruch” w kierunku dalszego upowszechniania i popularyzowania tego trendu. Bazując na osiągnięciach społeczności internetowej w tej dziedzinie za podstawę realizacji systemu umożliwiającego małym i średnim firmom wkroczenie sferę e-biznesu przyjęto systemy bazujące na tego typu oprogramowaniu.

Podsumowaniem całości kodu jest fragment obsługujący przyjęcie i zrealizowanie zamówienia. W obecnym stadium rozwoju sklepu jest to realizowane poprzez wysłanie przyjętych informacji pocztą email do obsługującego pracownika. Trwają prace nad skonstruowaniem wygodnego i sprawnego w działaniu „koszyka” obsługującego komplet czynności związanych z realizacją zamówień. Obecnie wykorzystywany formularz także jest generowany dynamicznie przez skrypt napisany w PHP. Dane wprowadzane do formularza są sprawdzane. Testowane jest wypełnienie wymaganych pól, niezbędnych do podjęcia dalszych działań związanych z realizacja zamówienia.

Struktura bazy

Poniższe zestawienie jest wynikiem działania skryptu „99-struktura” generującego schematyczną i poglądową prezentację struktury tabel i przynależnych im indeksów w bazie danych eMarket. Listing ten prezentuje stan bazy po wykonaniu pełnego załadunku wszystkich tabel oraz wykonaniu skryptów aktualizujących i czyszczących.

Poniższy rysunek przedstawia proces wprowadzania danych na stronie formularza, tuż po wybraniu odnośnika ukrytego pod postacią ikony koszyka sklepowego.

Rysunek 10 — Formularz realizacji zamówienia.

Całość realizowanych działań związanych ze złożeniem zamówienia wykonuje poniższy kod.

Popularne sieciowe systemy operacyjne

praca dyplomowa z początku wieku

Każda, nawet najlepiej zaprojektowana i wykonana sieć nie będzie działała bez zastosowania jednego z wielu dostępnych obecnie sieciowych systemów operacyjnych, które stanowią podstawę działania serwerów.

Do zadań sieciowych systemów operacyjnych należy udostępnianie w sieci plików i katalogów, wspólnych drukarek, modemów, zmieniaczy płyt CD-ROM, aplikacji oraz baz danych. Korzystanie z poszczególnych zasobów jest zwykle regulowane przez nadanie użytkownikom i stacjom roboczym odpowiednich praw dostępu. Ponadto system sieciowy powinien zapewniać możliwość porozumiewania się użytkowników ze sobą oraz pozwalać na korzystanie z usług internetowych, przy zapewnieniu bezpieczeństwa zasobów lokalnych.

Zadania te są wypełniane przez różne systemy w różny sposób i na rozmaitym poziomie. Dobór najbardziej odpowiedniego zależy od charakteru zastosowań, którym będzie służyła dana sieć lokalna, a także od jej wielkości, mierzonej liczbą serwerów i stacji roboczych.

Do najbardziej znanych należą: NetWare firmy Novell, Windows NT Server Microsoftu oraz Linux należący do rodziny systemów UNIX-owych.

UNIX

Jest to system najstarszy i najtrudniejszy do opanowania, a jednocześnie oferujący ogromne możliwości konfiguracyjne, bardzo wysoki poziom zabezpieczeń przed nieautoryzowanym dostępem do zasobów sieci oraz niespotykaną w innych systemach stabilność pracy. Jest powszechnie stosowany na serwerach internetowych. Pracuje on w trybie znakowym czyli tak jak znany chyba wszystkim Microsoft DOS. Jest przeznaczony wyłącznie dla sieci Client-Server.

UNIX zaprojektowany jest pod kątem obsługi dużych serwerów. Ma wbudowane mechanizmy do pracy w sieci, jest wielozadaniowy (wykonuje wiele programów jednocześnie) i wielodostępny (wielu użytkowników na raz). W instalacjach sieciowych bazujących na platformie UNIX-owej realizuje się współdzielenie zasobów dyskowych i urządzeń peryferyjnych, obsługę wielu zaawansowanych aplikacji o architekturze klient-serwer. System może być wyposażony w narzędzia bezpieczeństwa – od haseł użytkowników i sterowanych praw dostępu do zasobów, po szyfrowane kanały komunikacyjne, w których przesyłane przez łącza sieciowe dane są kodowane przed wysłaniem przez jeden z komputerów i dekodowane po odebraniu przez drugi, co zapobiega „podsłuchiwaniu” przez hackerów.

UNIX sprzedawany jest zazwyczaj wraz z komputerami, często w ramach całościowej instalacji sieciowej „pod klucz”. Służy wówczas do obsługi sieci i aplikacji typu bazy danych. Najbardziej znane oprogramowanie obsługujące bazy danych w architekturze klient-serwer, jak na przykład produkty firm Oracle czy Informix, posiada implementację na wszystkie platformy UNIX-owe. Pod kontrolą UNIX-a pracują zwykłe pecety oraz najpotężniejsze na świecie, wieloprocesorowe superkomputery.

UNIX jest standardowo wyposażony w narzędzia komunikacyjne, a jego włączenie do sieci jest stosunkowo proste, przy czym nie ma znaczenia czy jest to sieć lokalna, czy Internet. Administrator UNIX-a musi posiąść sporą porcję wiedzy o systemie. Specyfika poszczególnych odmian UNIX-a, zwłaszcza na poziomie zaawansowanych narzędzi do zarządzania powoduje, że niemal każdej odmiany systemu trzeba się osobno nauczyć.

Sieci oparte na serwerach UNIX-owych stosowane są w dużych, bogatych firmach i instytucjach. W wersjach komercyjnych są to rozwiązania kosztowne. Jednak UNIX potrafi efektywnie wykorzystać moc i szybkość przetwarzania silnych maszyn, zaś serwery oferują wysoką stabilność i niezawodność pracy, co ma istotne znaczenie w niektórych zastosowaniach.

Linux

Młodszy „brat” UNIX’a. Oferuje bardzo zbliżone możliwości, a jednocześnie jest o wiele łatwiejszy w obsłudze i konfiguracji. Został zaprojektowany przez jednego ze studentów informatyki na uniwersytecie w Oslo – Linusa Torvaldsa, który opublikował rezultaty swojej pracy w Internecie i udostępnił kod źródłowy systemu wszystkim zainteresowanym jego dalszą rozbudową. Dzięki temu Linux stał się najszybciej i najczęściej aktualizowanym systemem operacyjnym na świecie. Jego wersja instalacyjna jest legalnie dostępna w Internecie całkowicie za darmo (pomijając koszt pobrania kilkudziesięciu MB).

Tak jak UNIX, Linux znany jest z wysokiej niezawodności i stabilności pracy. Jest systemem wieloużytkownikowym i wielozadaniowym. Na pojedynczym serwerze może, za pomocą terminali, pracować wielu użytkowników. System autoryzacji, sterowanie dostępem za pośrednictwem nadawanych praw, szyfrowanie zdalnych transmisji sprawiają, że poprawnie skonfigurowany system zapewnia bardzo wysoki stopień ochrony danych. Dodatkowo system szczelnego izolowania wykonywanych na serwerze zadań sprawia, że nawet przy znacznej ilości pracujących jednocześnie użytkowników Linux pracuje niezwykle stabilnie.

Linux jest oprogramowaniem darmowym, rozprowadzanym na zasadzie licencji GPL (General Public License). Oznacza to, że do wersji wykonywalnych dołączone są pliki źródłowe i każdy, jeśli oczywiście potrafi, może sobie w dowolny sposób zmodyfikować każdą aplikację. Do funkcjonowania systemu oraz wygodnej pracy potrzebne są programy użytkowe, aplikacje dla serwera i interfejs graficzny X Window. Wszystkie te elementy zebrane razem i tworzące działającą wersję nazywa się dystrybucją. Jest wiele dystrybucji Linuxa (co najmniej kilkanaście), z czego najważniejsze to: RedHat, S.u.S.e., Slackware, Debian i Caldera.

W okresie początków Linuxa w Polsce najczęściej używaną jego wersją była dys­trybucja Slackware. Jednak jej znaczenie w dniu dzisiejszym spadło. Obecnie obser­wujemy dwa przeciwstawne kierunki roz­wojowe. Z jednej strony istnieją dystrybu­cje zorientowane komercyjnie, mające zdobyć część rynku systemów UNIX-owych. Ciągle są one dużo tańsze niż renomowa­ne produkty, a jednocześnie porównywal­ne pod względem funkcjonalności. Do­datkowo dzięki zastosowaniu jądra (ang. Kernel) Linu­xa działają one na prawie każdym sprzęcie PC oraz nie wymagają zbyt wielu zaso­bów systemowych. Najlepszym przykła­dem tego kierunku są dystrybucje firmy Caldera.

Na przeciwległym końcu znajdują się pakiety bezpłatne, będące efektem pracy programistów, którzy w ten sposób chcą propagować ideę bezpłatnego oprogra­mowania. Tworzą oni dystrybucje nieko­mercyjne, które służą głównie idei szero­kiego rozpowszechnienia Linuxa. Wśród nich na pierwszym miejscu należy wymie­nić dystrybucję Debian GNU/Linux oraz Red Hat.

Zastosowa­nie maszyny linuksowej jako serwera, oprócz bardzo dobrej stabilności tego systemu, ma tę dodatkową zaletę, że zwalnia nas z konieczności kupowania drogiego, specjalistycznego oprogramowania. Większość potrzebnego w tego typu za­stosowaniach software’u wchodzi bo­wiem w skład dystrybucji Linuxa.

Przeznaczony wyłącznie dla sieci Client-Server.

Novell NetWare

Produkt firmy Novell Incorporated. Oferuje wysoki poziom stabilności pracy i bezpieczeństwa. System Novell NetWare jest obecnie najpopularniejszym systemem sieciowym dla małych, średnich i dużych przedsiębiorstw. Oferuje bardzo duże możliwości zarządzania zasobami sieci powiązane z rewelacyjną wydajnością. Obsługuje systemy wieloprocesorowe co pozwala administratorom na budowę centralnych baz danych bez poświęcania wydajności sieci na rzecz łatwego dostępu do danych.

Pracujący na dedykowanym serwerze Novell NetWare (w wersji od 4.11) oferuje, oprócz tradycyjnych usług w rodzaju współdzielenia plików czy drukarek, także inne, jak routing (dostarczanie danych przez sieć do miejsca przeznaczenia po najlepszej drodze), zarządzanie siecią, zintegrowaną obsługę TCP/IP oraz publikowanie w Internecie (udostępnianie informacji w postaci stron WWW). Zapewnia przy tym ochronę bezpieczeństwa pracy i zasobów użytkowników na wysokim poziomie. Mechanizmy NDS (Novell Directory Services) ułatwiają bezpośredni, szybki dostęp do zasobów sieci bez względu na ich lokalizację. Natomiast rozbudowane mechanizmy zabezpieczeń i kontroli pozwalają na zachowanie poufności danych, szczegółowe regulowanie praw dostępu do zasobów sieciowych, monitorowanie użytkowników itp. Serwer NetWare umożliwia także podłączenie bezdyskowych stacji końcowych, które czytają programy startowe bezpośrednio z serwera. Przeznaczony jest wyłącznie dla sieci Client-Server zarówno LAN jak i MAN oraz WAN.

Microsoft Windows NT

Microsoft Windows NT (ang. Windows New Technology) to sieciowy system operacyjny firmy Microsoft, produkowany z myślą o wydajnych komputerach i zastosowaniach w przemyśle. Występuje w dwóch podstawowych wersjach: Workstation i Server. Wersja Workstation przeznaczona jest dla stacji roboczych natomiast wersja Server dla serwerów sieciowych. W systemie Windows NT postawiono przede wszystkim na niezawodność systemu i bezpieczeństwo, oferując sprawdzony i bardzo wygodny interfejs użytkownika pochodzący ze środowiska Microsoft Windows 95 oraz pełną 32-bitowość.

Windows NT Server umożliwia dostęp do systemu operacyjnego i usług aplikacyjnych na podstawie pojedynczej rejestracji (ang. login) użytkownika. Zapewnia wysoki stopień bezpieczeństwa, realizowany według tego samego modelu dla wszystkich usług sieciowych. Z punktu widzenia administratora, zarządzanie użytkownikami, zasobami sieciowymi (prawami dostępu), a także samym systemem i całą siecią odbywa się w sposób wysoce zintegrowany, z jednej konsoli, za pomocą interfejsu graficznego.

System sieciowy Microsoftu może także służyć jako serwer aplikacji – większość używanych na świecie programów komercyjnych, pracujących wcześniej pod innymi systemami, zostało przeniesionych na platformę NT. Ponadto udostępnia on usługi routingowe oraz DNS – serwer nazw domenowych, zapewniając przekład internetowych adresów komputerowych ze „słownych” na „liczbowe” i odwrotnie, na przykład: www.micros.com na 169.123.102.41. Serwer NT umożliwia również zdalne startowanie bezdyskowych stacji roboczych, podobnie jak w Novell NetWare.

Windows NT daje się zintegrować z siecią Novell NetWare oraz UNIX-ową, współpracuje też z systemami Apple Macintosh. Wśród administratorów systemów zdania na temat systemu Microsoftu są jednak podzielone. Niektórzy mówią o szybkim spadaniu wydajności serwera, gdy liczba obsługiwanych przezeń stacji wzrasta powyżej kilkunastu, innym nie podoba się duża „samodzielność” systemu, który sam rozpoznaje sprzęt czy otoczenie sieciowe i stara się skonfigurować wszystko automatycznie, nie zawsze z powodzeniem. Niewątpliwą zaletą Windows NT jest jego spójność i kompatybilność z szeroką gamą działającego wcześniej oprogramowania.

Microsoft Windows 95/98

Oba te systemy są systemami „pseudosieciowymi” gdyż nie oferują praktycznie żadnej formy zabezpieczeń przed niepowołanym dostępem do zasobów sieci i umożliwiają wyłącznie budowę sieci typu Peer-To-Peer. Ponieważ domyślnym protokołem komunikacji sieciowej w Windows 95/98 jest IPX/SPX, system ten współpracuje z serwerami Novell NetWare i Windows NT.

Pozycjonowanie naturalne

Analizę przeprowadzono na dwóch stronach internetowych: czuchaj.blogspot.com i apartamentybiznes.com. Każda z nich pozycjonowana była na cztery różne frazy kluczowe.

Pozycjonowanie polegało na próbie zaciekawienia użytkowników serwisami, tak aby sami Internauci promowali strony. Sami użytkownicy mieli doprowadzić do wypozycjonowania witryn na słowa kluczowe, które były najbardziej powiązane z ich tematyką.

Tabele przedstawiają uśrednione pozycję strony w wynikach wyszukiwania na poszczególne frazy.

Tabela 4 Średnia pozycja w wynikach wyszukiwania dla strony czuchaj.blogspot.com

Słowo kluczowe Średnia pozycja
dane osobowe brak w wynikach
ochrona danych osobowych 253
prawo nowoczesnych technologii 1
prawo własności intelektualnej brak w wynikach

Źródło: Opracowanie własne na podstawie wyników w wyszukiwarce google.pl

Z powyższej tabeli wynika, że pozycjonowanie nie przyniosło zamierzonego efektu. Tylko dla jednej frazy strona znalazła się bardzo wysoko w wynikach wyszukiwania. Należy dodać, że frazy „prawo nowoczesnych technologii” i „prawo własności intelektualnej” należą do bardzo prostych fraz do wypozycjonowania. Pozostałe dwie frazy są frazami trudnymi.

Tabela 5 Średnia pozycja w wynikach wyszukiwania dla strony apartamentybiznes.com

Słowo kluczowe Średnia pozycja
apartamenty Kraków 109
apartamenty w Krakowie 298
wynajem apartamentów 12
wynajem mieszkań 67

Źródło: Opracowanie własne na podstawie wyników w wyszukiwarce google.pl

Z powyższej tabeli wynika, że pozycjonowanie nie przyniosło zamierzonego efektu. W tym przypadku okazało się efektywniejsze niż w poprzednim, ale wciąż bardzo dużo brakuje mu do ideału. Tylko jedna fraza osiągnęła pozycję, którą można uznać za dość wysoką. Należy jednak dodać, że wszystkie pozycjonowane frazy należą do fraz trudnych. Podsumowując wyniki pozycjonowania naturalnego można śmiało stwierdzić, że wyniki wskazują na małą skuteczność tego rodzaju pozycjonowania. Zarówno w przypadku pierwszym – łatwych fraz, jak i w przypadku drugim – znacznie trudniejszych fraz badania pokazują nieskuteczność tej metody.

Wnioski z pracy magisterskiej

Zastosowana metodologia zbiorów rozmytych daje możliwości stabilnego przeprowadzania analiz matematycznych dotyczących oceny jakości życia w poszczególnych województwach. Wykorzystanie technologii opisanej w pracy pozwoliło na sprawdzenie poziomu życia w różnych jego aspektach ujętych w kategorie. Z wygenerowanych wykresów można wywnioskować, że najwyższy poziom życia notuje się w województwach: Mazowieckim, Śląskim, Dolnośląskim, Małopolskim, Zachodniopomorskim i Opolskim. Z kolei najniższy poziom życia jest w województwach: Warmińsko-Mazurskim, Podkarpackim, Lubuskim, Kujawsko-Pomorskim.

Należy jednak pamiętać, że uzyskany wynik zależy od kilku czynników:

  • wyboru odpowiednich kryteriów szczegółowych: wybór innych kryteriów mógłby spowodować, że uzyskany wynik różniłby się od otrzymanego,
  • wyboru kryteriów ilościowych i unikanie kryteriów jakościowych: w przypadku kryteriów jakościowych duże znaczenie ma subiektywizm oszacowania, ominięcie tego problemu zwiększyło wiarygodność uzyskanych wyników,
  • uważne sporządzenie macierzy parzystych porównań: prawidłowe
  • oszacowanie co do stopnia ważności poszczególnych spowoduje, że wyliczenie rang będzie bardziej dokładne.

Warto zauważyć, że wykorzystaną metodę można zastosować w wielu dziedzinach np. do oszacowania wartości nieruchomości ,samochodu, do analizy rynku papierów wartościowych, w medycynie do oszacowania stanu zdrowia i w wielu innych dziedzinach.

Algorytmizacja zadania

Schemat blokowy aplikacji

Rysunek 3.1 przedstawia schemat blokowy oprogramowania.

Centralnym punktem oprogramowania jest baza danych, do której przekazywane są dane pobrane z formularzy i wyniki obliczeń, a z której pobierane są dane do prezentacji. Edycja danych kryteriów szczegółowych jak również wyboru funkcji użyteczności oraz macierzy parzystych porównań odbywa się na poziomie interfejsu użytkownika, dane są odczytywane i zapisywane w bazie danych. Przeprowadzanie obliczeń odbywa się poprzez pobranie danych z bazy danych, obliczone wyniki są przesyłane do bazy danych. Wyświetlanie obliczonych danych odbywa się jednostronnie: żadne informacje w tym przypadku nie są wpisywane do bazy danych; w takim trybie przeprowadzane jest wyświetlanie kryteriów globalnych oraz wykresów.

Schemat bazy danych

Rysunek 3.2 przedstawia strukturę bazy danych.

Rys. 3.2. Struktura bazy danych.

Oprogramowanie wykorzystuje bazę danych dBase w wersji III+.

Poniższe tabele przedstawiają strukturę poszczególnych grup.

Tab. 3.1. Struktura grupy Kryteria szczegółowe.

Kryteria szczegółowe

Kategoria

Nazwa pliku

Pola

Zdrowie

b_zdrowie.dbf

województwo, lekarze,

łóżka szpitalne

Finanse

b_finanse.dbf

województwo, środki

trwałe, pkb, dochody

Infrastruktura

b_infra.dbf

województwo, kolej,

drogi, sklepy

Czystość

b_czystosc.dbf

województwo,

oczyszczalnie, emisja

gazów, lesistość

Praca

b_praca.dbf

województwo, pracujący,

bezrobotni, średnia płaca

Przestępczość

b_przest.dbf

województwo,

przestępstwa, wskaźnik

wykrywalności

Tab. 3.2. Struktura grupy Macierze parzystych porównań i współczynniki względnej ważności
kryteriów szczegółowych.

Macierze parzystych porównań i współczynniki względnej ważności kryteriów szczegółowych

Kategoria

Nazwa pliku

Pola

Zdrowie

m_zdrowie.dbf

województwo, lekarze,

łóżka szpitalne, ranga

Finanse

m_finanse.dbf

województwo, środki

trwałe, pkb, dochody,

ranga

Infrastruktura

m_infra.dbf

województwo, kolej,

drogi, sklepy, ranga

Czystość

m_czystosc.dbf

województwo,

oczyszczalnie, emisja gazów, lesistość, ranga

Praca

m_praca.dbf

województwo, pracujący,

bezrobotni, średnia płaca, ranga

Przestępczość

m_przest.dbf

województwo,

przestępstwa, wskaźnik wykrywalności, ranga

Wszystko

m_wszystko.dbf

kategoria, zdrowie,

finanse, infrastruktura,

czystość, praca,

przestępczość, ranga

Tab. 3.3. Struktura grupy Typy funkcji dla kryteriów szczegółowych i ich punkty kluczowe.

Typy funkcji dla kryteriów szczegółowych i ich punkty kluczowe

Kategoria

Nazwa pliku

Pola

Zdrowie

funkcje.dbf

kryterium szczegółowe,

typ funkcji, punkty

kluczowe: X1, X2, X3,

X4

Finanse

Infrastruktura

Czystość

Praca

Przestępczość

Tab. 3.4. Struktura grupy Kryteria globalne.

Kryteria globalne

Kategoria

Nazwa pliku

Pola

Zdrowie

dd_zdrowie.dbf

województwo, DD1,

DD2, DD3

Finanse

dd finanse.dbf

województwo, DD1,

DD2, DD3

Infrastruktura

dd infra.dbf

 

województwo, DD1,

DD2, DD3

Czystość

dd czystosc.dbf

 

województwo, DD1,

DD2, DD3

Praca

dd praca.dbf

 

województwo, DD1,

DD2, DD3

Przestępczość

dd przest.dbf

 

województwo, DD1,

DD2, DD3

Wszystko

dd wszystko.dbf

 

województwo, DD1,

DD2, DD3

Popularne protokoły transmisji

Poszczególne węzły sieci komunikują się pomiędzy sobą nadając informacje według określonych zasad zwanych protokołami. Główne cele i model realizacji funkcji sieciowych OSI (Open Systems Interconnection) zostały zdefiniowany przez organizację standaryzacyjną ISO (International Standard Organization). Definiuje on m.in. grupę protokołów służących do komunikacji sieciowej i międzysieciowej.

Obecnie na rynku sieciowym stosuje się bardzo wiele protokołów transmisji, nie zawsze zgodnych z zaleceniami ISO, lecz ich szerokie rozpowszechnienie zdecydowało o uznaniu ich za standardy sieciowe. Do protokółów tych należą między innymi:

  • NetBEUI (NetBIOS Extended User Interface) – opracowany w 1985 r. przez IBM dla małych sieci LAN, obecnie używany w sieciowych systemach operacyjnych Windows NT, Windows 95/98.
  • TCP/IP (Transmission Control Protocol/Internet Protocol)  – protokół początkowo opracowany dla potrzeb i pod kierunkiem Ministerstwa Obrony rządu USA, będący podstawowym protokołem ówczesnej sieci rządowej i edukacyjnej znanej dzisiaj na całym świecie jako Internet. Protokół ten stosowany jest głównie w sieciach opartych na systemie UNIX, lecz także w innych sieciach lokalnych i rozległych. System NetWare 4.11 umożliwia pracę z wykorzystaniem tego protokołu.
  • IPX/SPX (Internet Packet Exchange/Sequential Packet Exchange) – protokół będący implementacją protokołu XNS firmy Xerox dokonaną przez firmę Novell. Znany również jako IP/IPC/SPP firmy Banyan. Jest to podstawowy protokół wykorzystywany w sieciach opartych na systemie Novell NetWare. Protokół ten jest obecnie najpopularniejszym (po TCP/IP) protokołem używanym do transmisji danych w sieci.
  • AppleTalk – protokół zdefiniowany przez firmę Apple. Bardzo rzadko używany, gdyż stosowany jest głównie w sieciach opartych na komputerach firmy Apple (Macintosh, PowerPC).

Linkowanie wewnętrzne, linki javascript

Następnym istotnym narzędziem, które  pozwala na optymalizację strony WWW jest wykorzystanie w opisie odnośników słów kluczowych. Odnośniki te to są to linki, które zawierając opis słowny albo obrazek wstawiony pomiędzy znacznik określający link. Opis słowny (nazwy linków) są bardzo istotne dla stron do jakich prowadzą. Od tego, co za słowo znajdzie się między tymi znacznikami linku będzie zależeć na jakie słowo kluczowe zostanie zindeksowana w wyszukiwarce Google nasza strona.

Linkowanie wewnętrzne

Linki wewnętrzne wpływają na indeksację strony internetowej w wyszukiwarkach. Robot wyszukiwarki odwiedzając serwis przechodzi po wszystkich podstronach, do których umieszczony został odnośnik. Jeśli do którejś z podstron serwisu nie prowadzi link nie zostanie ona zindeksowana przez wyszukiwarkę, ponieważ robot jej nie odwiedzi – nie wie o jej istnieniu.

Zazwyczaj poleca się stosowanie słów kluczowych w tekście między znacznikami <a></a>, który to tekst jest widoczny bezpośrednio na stronie. W dodawaniu linków wewnętrznych ze słowami kluczowymi nie wolno przesadzać. Jedna z tez mówi, że jedna strona może zawierać najwyżej jeden odnośnik prowadzący do innej strony – ale to mało prawdopodobne.

Dzięki specyfikacji języka HTML/XHTML możemy jeszcze bardziej wzmocnić siłę naszego linku. Oprócz zastosowania słów kluczowych w opisie odnośnika możemy dodać dwa atrybuty:

  • title – atrybut zawierający dowolny tekstu, a pojawiający się po umieszczeniu kursora myszy nad linkiem
  • alt – atrybut pozwalający na wpisanie alternatywnego tekstu dla przeglądarki nie obsługującej grafiki

Poprawne zastosowanie linkowania wewnętrznego to umieszczenie słowa kluczowego zarówno w tytule linka, jak i w jego opisie. Dzięki czemu wartość strony na dane słowo kluczowe wzrośnie.

Linki JavaScript

Trzeba unikać stosowania linków wykorzystujących JavaScript. Taki link nie zostanie zindeksowany przez wyszukiwarki, ponieważ nie wiadomo dokąd prowadzi. Roboty wyszukiwarek nie potrafią obsługiwać tej technologii.