Category Archives: prace magisterskie

prace magisterskie z informatyki

Wyszukiwarka towarów w sklepie internetowym

Chcąc udostępnić potencjalnym klientom efektywny mechanizm wyszukiwania w bazie towarów, koniecznym stało się skonstruowanie odpowiednich mechanizmów umożliwiających pobranie od internauty interesującej go frazy, przeszukanie bazy danych oraz zaprezentowanie znalezionych pozycji. Pewnym problemem wydaje się być tutaj konieczność połączenia efektywności mechanizmu wyszukującego z możliwościami silnika bazy danych. Większość obecnie istniejących baz danych nie pozwala na wyszukiwanie pełnotekstowe przy wykorzystaniu indeksu, gdy szukana fraza zaczyna się znakiem wieloznacznym w zapytaniu typu „LIKE”. Najnowsze komercyjne bazy danych takie jak ORACLE wspierają ten mechanizm poprzez statyczne utworzenie specjalnych struktur indeksujących pełnotekstowo całe pola tabeli, jednakże jedynie statycznie. Każdorazowe dopisanie krotki do tabeli wymusza ponowne pełne zindeksowanie całości tabeli, co praktycznie wyklucza to zastosowanie w przypadku bazy, gdzie są modyfikowane lub dodawane kolejne rekordy.

Rysunek 7. Główna strona wyszukiwarki towarów.

PostgreSQL posiada bardzo zaawansowane metody i typy indeksów, jednak nie ma możliwości ich użycia w przypadku pełno tekstowego wyszukiwania. Silnik bazy danych jest wtedy zmuszony do wykonania pełnego przejścia po wszystkich krotkach tabeli (tzw. full scan), co drastycznie obniża efektywność tego rozwiązania.

W obecnej fazie rozwoju aplikacji sklepu internetowego zdecydowano się na pewne rozwiązania skutecznie eliminujące wykonywanie pełnych przejść w tabelach. W głównym oknie wyszukiwawczym jednak taki mechanizm musiał tymczasowo pozostać ze względu na konieczność zapewnienia pełnego wyszukiwania nawet kosztem zwiększonego obciążenia systemu i spowolnienia samego procesu. W module ofert przy przeglądaniu gotowych zestawień towarów zastosowano zmodyfikowany mechanizm głównej wyszukiwarki w taki sposób aby nie używać zapytań zaczynających się znakiem wieloznacznym „%” w klauzuli „LIKE”, co spowodowało możliwość użycia przez motor bazy danych indeksów na przeglądanych polach a tym samym wykonywanie całości zapytania w sposób błyskawiczny.

zam. nazwa towaru data ceny cena netto cena brutto dostępny info
4 PHILIPS 21PT1354 TELEWIZOR 2001-06-06 777.87 949.00 tak info
14 4 PHILIPS 21PT1542 TELEWIZOR

PHILIPS 21PT1654.

2000-10-20

2001-06-08

728.69

818.85

889.00

999.00

tak info
4 PHILIPS 21PT1663 2001-01-02 982.79 1199.00 tak info
4 TELEWIZOR PHILIPS 21PT1664 2001-05-29 818.85 999.00 tak info
4

4

PHILIPS 21PT2665 TELEWIZOR

PHILIPS 21PT4475 TELEWIZOR.

2001-05-09 982.79 1199.00
2001-04-20 900.82 1099.00
4 PHILIPS 21PT5505 TELEWIZOR 2001-01-02 1392.62 1699.00 tak info
4 TELEWIZOR COMBI 21PY330 2001-03-15 1556.56 1899.00 tak info
4 PHILIPS 21PY708 2001-06-12 1966.39 2399.00 tak info

Rysunek 8 — Prezentacja wyników wyszukania towaru.

Chcąc rozwiązać tzw. problem „full text search” czyli pełnotekstowego wyszukiwania korzystającego z indeksów (postaresa1.org/idocs/index.php?indices.html) w przygotowaniu jest pewien model przechowywania nazw towarów w dodatkowej tabeli, ale w taki sposób, aby możliwym stało się zaindeksowanie każdego wyrazu z nazwy towaru. Opracowana koncepcja polega na podziale nazwy towarów na odrębne wyrazy a następnie na zapisanie ich do odrębnych pól w krotce.

Każde pole będzie polem indeksowanym tak więc przy konstruowaniu zapytania możliwym stanie się wykorzystanie w mechanizmie wyszukiwarki odwołania klauzulami „LIKE” bez podawania na początku znaku wieloznacznego „%” a zamianę szukanej frazy na kilka klauzul typu „LIKE ‘towar%’” co pozwoli na użycie indeksów jak w przypadku przeszukania w module ofert. Pole z nazwą towaru i oznaczeniem producenta sumarycznie ma długość 34+19=53 znaki. Zakładając że w skrajnym pesymistycznym przypadku nazwa towaru złożona będzie z pojedynczych liter rozdzielanych spacjami to otrzymujemy około 27 pól

Rysunek 9 — Prezentacja wyszukiwania predefiniowanego rodzaju towarów.

potrzebnych do rozbicia na wyrazy (53/2=26+1). Tak więc przyjmujemy, że 30 pól jest liczbą wystarczająca w zupełności do przechowania całej nazwy towaru w rozbiciu na wyrazy. Spacje nie są przechowywane bowiem służą jako znak, według którego dokonujemy rozbicia na części składowe. Do kolejnych pól rekordu wpisujemy kolejne wyrazy z nazwy towaru a sama treść zapytania wykonującego wyszukanie z wykorzystaniem indeksów przyjmie wtedy przykładową postać:

SELECT * FROM subtowary WHERE pole1 LIKE ‘szukana_fraza%’ OR pole2 LIKE ‘szukana_fraza%’ OR…..

Zakładamy oczywiście że szukana fraza jest pojedynczym wyrazem, a w przypadku, gdy jest to kilka wyrazów wykonujemy kilka takich zapytań dla każdego z wyrazów, składanych następnie w jeden zestaw wyników. Powyższy projekt rozwiązania problemu pełnych przejść po tabeli wydaje się być optymalnym do tego celu rozwiązaniem i będzie testowo zastosowany w aplikacji sklepu internetowego w najbliższym czasie.

Kod źródłowy wyszukiwarki

Mechanizm wyszukiwarki został wbudowany w różne strony serwisu internetowego firmy. W momencie gdy powstawał, język PHP nie posiadał uniwersalnej klasy obiektów służących do odwołania do bazy danych. Każdy typ bazy danych wymagał użycia innego zestawu poleceń. Chcąc maksymalnie uniezależnić się od samej bazy zastosowano uniwersalne definicje funkcji odwołujących się do baz. Wykorzystano do tego celu bibliotekę phpDB której autorami są J. Thong i C. Fonk (phpdb.linuxbox.com) pozwalającą na zamaskowanie metod odwołań do baz MySQL, MSQL, PostgreSQL, Microsoft SQL Server, Sybase na jednakowe funkcje, co pozwala na łatwą wymianę silnika bazy na inny bez konieczności zmian w kodzie źródłowym. Obecnie rozwijana jest przez autorów języka PHP, klasa uniwersalnych funkcji, metod i obiektów pozwalająca na uniknięcie problemów związanych z koniecznością przeróbek kodu w takich przypadkach. Projekt jest obecnie w bardzo wczesnej fazie rozwoju jednakże fakt tworzenia go przez ekipę tworzącą PHP gwarantuje, że wkrótce możliwym będzie zastosowanie go w systemach produkcyjnych. Nosi on nazwę „PEAR: the PHP Extension and Application Repository”. Poniższy listing prezentuje i omawia kod php wyszukiwarki. Niektóre linie zostały sztucznie podzielone na krótsze ze względu na ich długość, co oznaczono znakiem „\” (jednakże on sam w kodzie oryginalnym nie może występować). Listing zawiera komentarze świadczące o zespołowej pracy nad powstającym kodem oraz podział zadań na kod dostępu i obsługi bazy danych oraz kod dynamicznego generowania strony na podstawie pobieranych z bazy danych rekordów.

Słowa kluczowe i ich dobór

W pozycjonowaniu słowami kluczowymi (ang. Keywords) nazywamy wyrazy bądź wyrażenie, które użytkownicy wpisują jako zapytanie do wyszukiwarek.

Odpowiedni dobór słów kluczowych jest niezwykle ważną częścią optymalizacji i dalszego pozycjonowania strony www. Od tego wyboru zależy czy strona, którą będziemy pozycjonować stanie się popularna i będzie miała dużą ilość odwiedzin. Ilość odwiedzin jest sprawą nadrzędną w optymalizacji i pozycjonowaniu. Na pomoc przy doborze słów kluczowych przychodzą nam narzędzia zbierające słowa kluczowe. Dzięki nim można dowiedzieć się jakie słowa kluczowe są najczęściej wpisywane przez użytkowników Internetu.

Poniżej omówione zostaną najpopularniejsze narzędzia wspomagające dobór słów kluczowych.

Google Keyword Tool

Najlepsze i najpopularniejsze narzędzie do doboru słów kluczowych. Google udostępnia narzędzie, które przedstawia propozycje słów kluczowych dla usługi AdWords. Google Keyword Tool jest prawdopodobniej najlepszym narzędziem współpracującym z polskimi stronami. Posiada wiele przydatnych funkcji, takich jak: dopasowanie według kraju, języka, wyszukanie synonimów, natężenie poszukiwań słowa kluczowego i wiele innych. Narządzie zwraca do 201 wyników. Popularność słów kluczowych obliczana jest na podstawie danych pochodzących z wyszukiwarki Google. Daje to nam precyzyjny obraz dla tej właśnie wyszukiwarki.

Rysunek 1 Narzędzie Google Keyword Tool.

Źródło: Opracowanie własne na podstawie [adwords.google.pl/select/KeywordToolExtemal, 2008]

Keyword Suggestions for Overture Tool

Narzędzie po wprowadzeniu przez nas słowa kluczowego zwróci nam słowa, które były wprowadzane do wyszukiwarki w ostatnim miesiącu. Dzięki temu narzędziu dowiemy się również ile razy dane słowo bądź fraza było wyszukiwane.

Rysunek 2 Keyword Suggestions for Overture Tool.

Źródło:   Opracowanie własne na podstawie [seochat.com/seo-tools/keyword-suggestions-overture/, 2008]

Ranking Onet Boksy

Jest to typowy ranking bez żadnych dodatkowych narzędzi. Przygotowany jest on na podstawie wyszukiwarki Onet (szukaj.onet.pl). Ranking zawiera ponad 13 tysięcy pozycji. Narzędzie działa na podstawie popularności słów kluczowych w wyszukiwarce Onet. Z racji małej popularności wyszukiwarki ranking ten można stosować jako uzupełnienie dla wcześniej omawianych narzędzi.

Tabela 1 Ranking Onet Boksy

Źródło: Opracowanie własne na podstawie [boksy.onet.pl/ranking.html?n=1,2008]

Hasło Wyświetlenia
filmy erotyczne 215572
strony erotyczne 171171
uczniowie absolwenci 150256
dojrzale 45953
zdjęcia erotyczne 42163
teledyski 33105
aukcje internetowe 28245
nastoletnie 26764
lotto 26104
wyszukiwarki 24429
ogloszenia towarzyskie 24315
amatorki 17923
kobiety 16635
gry online 16049
serwisy erotyczne 16035
senniki 15888
horoskopy 15613
hardcore 14775
seks grupowy 14766
praca 14597

Ranking haseł Wirtualnej Polski

Serwis udostępnia dwa rankingi haseł: Najpopularniejsze zapytania i Ostatnie zapytanie. Z racji małej popularności wyszukiwarki ranking haseł Wirtualnej Polski podobnie jak Ranking Onet Boksy może stanowić tylko uzupełnienie przy doborze słów kluczowych.

Najpopularniejsze zapytania jest to ranking najczęściej wpisywanych słów kluczowych w wyszukiwarce Wirtualnej Polski (szukaj.wp.pl). Ranking podzielony jest na liczne kategorie, a użytkownik może wybrać sobie konkretny tydzień lub miesiąc z archiwum.

Ostatnie zapytanie jest to ranking słów kluczowych, które zostały ostatnio zadane. Tabela przedstawiające słowa jest cały czas aktualizowana.

Badanie efektywności programu GenMachine w rozwiązywaniu zadania optymalnej selekcji portfela

Badanie ma na celu wykazać przydatność programu GenMachine w rozwiązywaniu problemu optymalnej selekcji portfela. Ma również wykazać ścisłą korelację pomiędzy wartościami kryteriów prawdopodobieństwa (zysku) i ryzyka oraz portfeli wynikowych. Dane wejściowe zostały zaczerpnięte z przykładu przytoczonego w opracowaniu [5] Pawła Sewastianowa i Moniki Jończyk w celach porównawczych.

Zadanie zakłada, że inwestor dobiera optymalny portfel spośród pięciu znanych walorów. Oczekiwana stopa zwrotu każdego z walorów dana jest w postaci rozkładu Gaussa i przedstawiona na rysunku 4.24.

Rys. 4.24. Oczekiwana stopa zwrotu walorów C1, C2, C3, C4, C5 w postaci rozkładu Gaussa

Parametry charakterystyczne dla każdego z rozkładów podano w tabeli 4.1.

Tabela 4.1. Parametry charakterystyczne dla badanych rozkładów Gaussa

Walor Średnia arytmetyczna Wariancja
Ci 0,25 0,01125
c2 0,22 0,00750
c3 0,20 0,00750
c4 0,15 0,00500
c5 0,05 0,00250

Przejście od rozkładu Gaussa do liczby przedziałowej polega na odczycie wartości każdej funkcji reprezentującej stopę zwrotu, po znormalizowaniu do 1, w punktach przecięcia z wykresem funkcji g(x) = 0,01.

Rys. 4.24. Oczekiwana stopa zwrotu walorów C1, C2, C3, C4, C5 w postaci rozkładu Gaussa znormalizowanego do 1

Uzyskane wartości początku i końca każdego z przedziałów podano w tabeli 4.2.

Walor Początek przedziału Koniec przedziału
Ci -0,071 0,570
c2 -0,042 0,483
c3 -0,062 0,462
c4 -0,063 0,363
c5 -0,100 0,202

Tabela 4.2. Oczekiwana stopa zwrotu walorów C1, C2, C3, C4, C5 w postaci przedziałów

Optymalizowaną przez program GenMachine funkcją celu jest funkcja przedziałowa f (x) = x1 • Cj + gdzie xi..5 to zmienne sterujące, a C1..5 to stałe przedziały ostre. Populacja liczy 100 osobników, z których każdy reprezentowany jest przez wektor zmiennych sterujących w postaci liczb rzeczywistych [xi, x2, x3, x4, x5]. Operator selekcji turniejowej skonstruowany jest w ten sposób, że po obliczeniu wartości funkcji celu dla wszystkich genotypów bieżącej populacji, nadaje każdemu z nich rangę, dzięki zastosowaniu procedury sortowania szybkiego.

Procedura sortowania porównuje pary przedziałów poprzez obliczenie kryterium prawdopodobieństwa i kryterium ryzyka, a następnie zastosowanie agregacji addytywnej, tak jak zostało to opisane w podrozdziale 3.2 [cytowanej pracy magisterskiej].

Sklep internetowy

Uwarunkowania ekonomiczne

W czasach gwałtownego rozwoju Internetu, działalność gospodarcza wkracza w nowy etap rozwoju. Nowe możliwości jakie stwarza zasięg działania, powszechność oraz dostępność Internetu inspirują do zainteresowania się rozwojem biznesu na tej platformie. Szczególną dziedziną, w której jest możliwy szybki rozwój i poszerzenie podstawowej i tradycyjnej działalności jest handel, rozumiany zarówno jako wymiana pomiędzy partnerami jak i dostawcami a ich klientami. Rozwój małej i średniej przedsiębiorczości wymaga rozwiązań dostosowanych do potrzeb tego segmentu działalności komercyjnej. Rynek ten w krajach Unii Europejskiej czy też w Stanach Zjednoczonych jest określany jako SOHO (Small Office Home Office).

Podstawowym kryterium jest tu wielkość firmy, różnie rozumiana, często jako ilość zatrudnionych pracowników czy też wielkość generowanych przychodów, obrotów itp. Jedyną różnicą pomiędzy Polską a innymi krajami Europy Zachodniej jest właśnie skala według której następuje segmentacja. W Polsce przyjmuje się że średniej wielkości przedsiębiorstwo zatrudnia ponad dwudziestu pięciu pracowników. Jest to o rząd wielkości mniejsza liczba niż w innych krajach Unii Europejskiej. Analiza potrzeb takich firm wykazała, że podstawowym kryterium wyboru rozwiązań informatycznych wspierających i rozszerzających działalność podstawową są koszty zarówno zakupu, rozwoju jak i utrzymania systemów, oprogramowania i administracji. Społeczność internetowa jednoznacznie wykazuje ogromne zainteresowanie rozwojem oprogramowania i systemów OpenSource (opensource.org) zarówno opartych na licencji GNU GPL jak i BSD. Teksty tych dokumentów umieszczone są pod adresem opensource.org/1icenses

Przykładem systemów OpenSource jest np. Linux czy wiele innego doskonałego oprogramowania określanego wspólną nazwą GNU. Kolejnym elementem jest także cała rodzina Unix’owych sieciowych systemów operacyjnych *BSD takich jak FreeBSD (freebsd.org). NetBSD (netbsd.org). OpenBSD (openbsd.org). baz danych takich jak PostgreSQL (postgresq1.org), języków programowania jak PHP (php.net) i innych. Tendencje te ostatnio znalazły poparcie u „wielkich” rynku informatycznego. Sun wykupił i udostępnił na licencji GNU pakiet biurowy StarOffice, IBM przeniósł Linux’a na swoje platformy mainframe, Borland stworzył środowisko Delphi/Kylix do budowy uniwersalnych aplikacji dla środowiska Windows/Linux oraz udostępnił bazę InterBase itp. Powstała organizacja Free Software Foundation (fsf.org) wspierająca ten „ruch” w kierunku dalszego upowszechniania i popularyzowania tego trendu. Bazując na osiągnięciach społeczności internetowej w tej dziedzinie za podstawę realizacji systemu umożliwiającego małym i średnim firmom wkroczenie sferę e-biznesu przyjęto systemy bazujące na tego typu oprogramowaniu.

Podsumowaniem całości kodu jest fragment obsługujący przyjęcie i zrealizowanie zamówienia. W obecnym stadium rozwoju sklepu jest to realizowane poprzez wysłanie przyjętych informacji pocztą email do obsługującego pracownika. Trwają prace nad skonstruowaniem wygodnego i sprawnego w działaniu „koszyka” obsługującego komplet czynności związanych z realizacją zamówień. Obecnie wykorzystywany formularz także jest generowany dynamicznie przez skrypt napisany w PHP. Dane wprowadzane do formularza są sprawdzane. Testowane jest wypełnienie wymaganych pól, niezbędnych do podjęcia dalszych działań związanych z realizacja zamówienia.

Struktura bazy

Poniższe zestawienie jest wynikiem działania skryptu „99-struktura” generującego schematyczną i poglądową prezentację struktury tabel i przynależnych im indeksów w bazie danych eMarket. Listing ten prezentuje stan bazy po wykonaniu pełnego załadunku wszystkich tabel oraz wykonaniu skryptów aktualizujących i czyszczących.

Poniższy rysunek przedstawia proces wprowadzania danych na stronie formularza, tuż po wybraniu odnośnika ukrytego pod postacią ikony koszyka sklepowego.

Rysunek 10 — Formularz realizacji zamówienia.

Całość realizowanych działań związanych ze złożeniem zamówienia wykonuje poniższy kod.

Wnioski z pracy magisterskiej

Zastosowana metodologia zbiorów rozmytych daje możliwości stabilnego przeprowadzania analiz matematycznych dotyczących oceny jakości życia w poszczególnych województwach. Wykorzystanie technologii opisanej w pracy pozwoliło na sprawdzenie poziomu życia w różnych jego aspektach ujętych w kategorie. Z wygenerowanych wykresów można wywnioskować, że najwyższy poziom życia notuje się w województwach: Mazowieckim, Śląskim, Dolnośląskim, Małopolskim, Zachodniopomorskim i Opolskim. Z kolei najniższy poziom życia jest w województwach: Warmińsko-Mazurskim, Podkarpackim, Lubuskim, Kujawsko-Pomorskim.

Należy jednak pamiętać, że uzyskany wynik zależy od kilku czynników:

  • wyboru odpowiednich kryteriów szczegółowych: wybór innych kryteriów mógłby spowodować, że uzyskany wynik różniłby się od otrzymanego,
  • wyboru kryteriów ilościowych i unikanie kryteriów jakościowych: w przypadku kryteriów jakościowych duże znaczenie ma subiektywizm oszacowania, ominięcie tego problemu zwiększyło wiarygodność uzyskanych wyników,
  • uważne sporządzenie macierzy parzystych porównań: prawidłowe
  • oszacowanie co do stopnia ważności poszczególnych spowoduje, że wyliczenie rang będzie bardziej dokładne.

Warto zauważyć, że wykorzystaną metodę można zastosować w wielu dziedzinach np. do oszacowania wartości nieruchomości ,samochodu, do analizy rynku papierów wartościowych, w medycynie do oszacowania stanu zdrowia i w wielu innych dziedzinach.

Linkowanie wewnętrzne, linki javascript

Następnym istotnym narzędziem, które  pozwala na optymalizację strony WWW jest wykorzystanie w opisie odnośników słów kluczowych. Odnośniki te to są to linki, które zawierając opis słowny albo obrazek wstawiony pomiędzy znacznik określający link. Opis słowny (nazwy linków) są bardzo istotne dla stron do jakich prowadzą. Od tego, co za słowo znajdzie się między tymi znacznikami linku będzie zależeć na jakie słowo kluczowe zostanie zindeksowana w wyszukiwarce Google nasza strona.

Linkowanie wewnętrzne

Linki wewnętrzne wpływają na indeksację strony internetowej w wyszukiwarkach. Robot wyszukiwarki odwiedzając serwis przechodzi po wszystkich podstronach, do których umieszczony został odnośnik. Jeśli do którejś z podstron serwisu nie prowadzi link nie zostanie ona zindeksowana przez wyszukiwarkę, ponieważ robot jej nie odwiedzi – nie wie o jej istnieniu.

Zazwyczaj poleca się stosowanie słów kluczowych w tekście między znacznikami <a></a>, który to tekst jest widoczny bezpośrednio na stronie. W dodawaniu linków wewnętrznych ze słowami kluczowymi nie wolno przesadzać. Jedna z tez mówi, że jedna strona może zawierać najwyżej jeden odnośnik prowadzący do innej strony – ale to mało prawdopodobne.

Dzięki specyfikacji języka HTML/XHTML możemy jeszcze bardziej wzmocnić siłę naszego linku. Oprócz zastosowania słów kluczowych w opisie odnośnika możemy dodać dwa atrybuty:

  • title – atrybut zawierający dowolny tekstu, a pojawiający się po umieszczeniu kursora myszy nad linkiem
  • alt – atrybut pozwalający na wpisanie alternatywnego tekstu dla przeglądarki nie obsługującej grafiki

Poprawne zastosowanie linkowania wewnętrznego to umieszczenie słowa kluczowego zarówno w tytule linka, jak i w jego opisie. Dzięki czemu wartość strony na dane słowo kluczowe wzrośnie.

Linki JavaScript

Trzeba unikać stosowania linków wykorzystujących JavaScript. Taki link nie zostanie zindeksowany przez wyszukiwarki, ponieważ nie wiadomo dokąd prowadzi. Roboty wyszukiwarek nie potrafią obsługiwać tej technologii.

Podsumowanie pracy magisterskiej

Głównym celem niniejszej pracy było przedstawienie i porównanie, a następnie wybór najskuteczniejszej z czterech metod pozycjonowania stron internetowych w wyszukiwarce Google.

W wyniku przeprowadzonych badań okazało się, że metoda naturalne jest kompletnie nieskuteczna. Wyniki okazały się niezadowalające w każdym z dwóch badanych przypadków. Należy jednak zaznaczyć, że w świecie pozycjonerów znane są strony www, które są znakomicie pozycjonowane dzięki metodzie naturalnej. Są to jednak jednostkowe przypadki i najczęściej dotyczą stron lub portali społecznościowych czyli witryn tworzonych przez samych internautów.

Badania wykazały, że kolejna z metod to znaczy pozycjonowanie przez optymalizację pod kątem wyszukiwarek jest znacznie skuteczniejsza od poprzedniej. Jednak satysfakcjonujące efekty może przynieść tylko w zastosowaniu do fraz prostych do pozycjonowania. To znaczy takich, gdzie nie ma wielu innych witryn www, które są pozycjonowane na te same słowa kluczowe.

Kolejna metoda pozycjonowania, czyli pozycjonowanie nieetyczne, nie było badane na potrzeby tej pracy. Został jedynie pokazany przykład takiego rodzaju pozycjonowania. Biorąc pod uwagę omówiony serwis www nasuwa się jeden wniosek. Strony pozycjonowanie nieetycznie wcześniej czy później zostaną usunięte z indeksu wyszukiwarki, czyli zostanie na nie nałożony tak zwany ban.

Ostatnia z badanych metod, czyli pozycjonowanie właściwe, okazała się na podstawie przeprowadzonych badań bardzo dobrą metodą pozycjonowania. Wszystkie dwa przykłady witryn www, na wszystkie pozycjonowane słowa kluczowe uzyskały zadowalające rezultaty. Frazy znalazły się również w TOP4, które zapewnia 100 procentową klikalność w odnośnik przez użytkowników przeszukujących wyniki wyszukiwania. Warto zaznaczyć, że dotyczyło to zarówno fraz łatwych jak i trudnych do wypozycjonowania.

Jaka jest przyszłość pozycjonowania? Bardzo ciężko to przewidzieć. Możemy tylko przypuszczać, że algorytmy wyszukiwarek będą coraz bardziej „inteligentne”. Przede wszystkim dzięki zastosowaniu w nich elementów sztucznej inteligencji. Co za tym idzie w coraz łatwiejszy sposób wykrywane będzie pozycjonowanie stron. Przed tym przecież bronią się wyszukiwarki. Jednak moje osobiste zdanie jest takie, że każdy algorytm, nawet najbardziej zaawansowany będzie można obejść i to z pewnością wcześniej czy później uda się pozycjonerom.

Wnioski

Na początku pracy została postawiona teza, że pozycjonowanie właściwe jest zdecydowanie najlepszą metodą pozycjonowania witryn www. Po dogłębnej analizie problemu stwierdzono słuszność tego założenia. Badanie wykonane na potrzeby tej pracy jednoznacznie wskazały tę metodę jako optymalną i najbardziej efektywną.

Pozycjonowanie jest jedyną skuteczną metodą dotarcia na czołowe pozycję w wynikach wyszukiwania.

Optymalizacja stron pod kątem wyszukiwarek jest integralną częścią pozycjonowania.

Pozycjonowanie powinno być realizowane przez profesjonalistów w innym przypadku może zakończyć się zbanowaniem strony.

Licencja i prawa autorskie Joomla!

Joomla! jest upowszechniany na zasadach GNU General Public License (GNU GPL)[1].

Powszechna Licencja Publiczna zapewnia swobodę upowszechniania kopii oprogramowania oraz umożliwia pobieranie za to opłat, ale nie pozwala pobierać opłat za samo oprogramowanie. GNU GPL zapewnia swobodę dokonywania zmian w oprogramowaniu lub wykorzystywania jego fragmentów w nowych wolnych programach. Nie można jednak zmieniać treści licencji – nie pozwala na to ani prawo autorskie, ani inne przepisy prawa. Tak więc w sprawie autorskich praw własności można upowszechniać to oprogramowanie i pobierać za tę usługę opłatę. Dozwolone jest dokonywanie dowolnych zmian w oprogramowaniu, zmienianie wyglądu i zawartości oraz pobieranie opłat za tę pracę. Wolne oprogramowanie zapewnia swobodę używania, wykonywania kopii, rozpowszechniania, dostępu do kodu źródłowego, modyfikowania kodu i rozwijania programu.

Precyzyjniej, wolne oprogramowanie oznacza cztery rodzaje wolności użytkowników:

  • wolno wykorzystywać program dla j akiegokolwiek celu,
  • wolno studiować kod programu i dostosowywać go do swoich potrzeb. Dostęp do kodu źródłowego jest niezbędnym warunkiem tej wolności,
  • wolno rozprowadzać kopie programu,
  • wolno ulepszać program i upowszechniać ulepszenia, także dla wspólnej korzyści. Dostęp do kodu źródłowego jest niezbędnym warunkiem tej wolności.

[1]   Polskie Centrum Joomla! [joomla.pl]

Joomla!

„To nadchodzące wydanie będzie świętem dla każdego.

Oznacza ono kontynuację jednego z najlepszych systemów open source bez komercyjnych ograniczeń czy interwencji. ”

– Andrew Eddie (lider projektu Joomla!)

Jeszcze nie tak dawno wobec niekomercyjnych systemów zarządzania treścią podchodzono z dość sporym dystansem, który spowodowany był brakiem zaufania do tego typu aplikacji, ponieważ dotychczasowe nie spełniały swojego zadania tak jak było by to wymagane. Stereotyp ten przełamał system zarządzania treścią Joomla!, który jest bardzo zaawansowanym oprogramowaniem niekomercyjnym. W chwili obecnej w sieci Internet znajduje się około 3772 płatnych i bezpłatnych składników[1] dedykowanych dla systemu Joomla!

Joomla! jest nowoczesnym systemem, który umożliwia tworzenie strony internetowej i zarządzanie nią po instalacji na serwerze. Choć istotą Joomla! jest łatwość i prostota obsługi, to tworzone za jego pomocą projekty są przykładem wykorzystania najnowocześniejszych technologii informatycznych. Joomla! został stworzony w PHP/MySQL, korzysta z XML, DHTML, RSS/RDF, JavaScript umożliwiających dynamiczną zmianę zawartości.

Zaletą jest też fakt, iż Joomla! został ciepło przyjęty przez polskich użytkowników, otrzymał wsparcie polskich serwisów internetowych i został w pełni przetłumaczony na nasz rodzimy język.

Projekt Joomla! jest rozwijany przez użytkowników na całym świecie, co niesie ze sobą zagrożenia, gdyż ci sami użytkownicy mogą wyszukiwać luki oraz błędy w systemie i wykorzystać je do złych celów.


[1] Na podstawie [extensions.joomla.org] 08.2008

Protokoły komunikacyjne. Standardy sieci

Protokoły komunikacyjne definiują sposób przekazywania w sieci pakietów danych. Firma IBM ma własny zestaw protokołów komunikacyjnych o nazwie NETBIOS, natomiast firma Novell stosuje swoją wersję protokołu XNS (Xerox Network System), którą firma Xerox opracowała w celu umożliwienia komunikacji między własnymi produktami. Uwzględnia to również łączenie sieci lokalnych Ethernet ze sobą i z publicznymi sieciami transmisji danych.  Faktycznie w skład zestawu XNS wchodzi wiele protokołów, ale najczęściej korzysta się z dwóch: IPX (Internet Packet Exchange) i SPX (Sequence Packet Exchange). Protokołu SPX używa się wtedy, kiedy system gwarantuje dotarcie jakiegoś komunikatu lub żądania. Protokół ustala wtedy połączenie (tzw. obwód wirtualny) między nadawcą i adresatem. Komunikaty przekazywane przez to łącze otrzymują kolejne numery. Adresat używa tych numerów w celu weryfikacji transmisji: wykrywa komunikaty brakujące, powtórzone lub nadane w niewłaściwej kolejności. Protokół IPX jest prostszy i nie uwzględnia sekwencyjnej numeracji komunikatów. Jeśli nadawca nie otrzymuje odpowiedzi, komunikat jest wysyłany powtórnie. Choć protokół IPX nie jest tak niezawodny jak SPX, to nie powoduje wykonywania nadmiarowych operacji.

Wiele systemów obliczeniowych pracujących z systemem operacyjnym UNIX używa protokołu TCP/IP (Transmission Control Protocol/Internet Protocol) lub NFS. TCP/IP opracowany został przez departament obrony Stanów Zjednoczonych jako fragment prac dotyczących sieci ARPANET – jednej z wczesnych sieci z komutacją pakietów. Protokół IP jest przeznaczony do wysyłania i odbierania pakietów danych w sieci, ale bez pełnej gwarancji niezawodności. Protokół TCP zapewnia niezawodne przekazywanie danych przez tworzone w tym celu połączenia, wykorzystując jako bazę protokół IP.

Firma Sun Microsystems korzysta z zestawu protokołów o nazwie TOPS. Te protokoły działają w warstwie sieciowej i transportowej, a czasem również w warstwie sesji modelu OSI. Zapewniają one również adresowanie węzłów w połączonych ze sobą sieciach.

Wszystkie połączone ze sobą sieci muszą stosować ten sam protokół albo korzystać z mechanizmów translacji protokołów.

Standardy sieci

Topologie sieci są dobrym sposobem wizualizacji sieci, ale aby stworzyć sieć należy korzystać z określonych typów kabli, topologii i urządzeń, które muszą ze sobą współpracować. Każdy standard korzysta z innych kabli, kart sieciowych i innych urządzeń aktywnych.