Linkowanie wewnętrzne, linki javascript

Następnym istotnym narzędziem, które  pozwala na optymalizację strony WWW jest wykorzystanie w opisie odnośników słów kluczowych. Odnośniki te to są to linki, które zawierając opis słowny albo obrazek wstawiony pomiędzy znacznik określający link. Opis słowny (nazwy linków) są bardzo istotne dla stron do jakich prowadzą. Od tego, co za słowo znajdzie się między tymi znacznikami linku będzie zależeć na jakie słowo kluczowe zostanie zindeksowana w wyszukiwarce Google nasza strona.

Linkowanie wewnętrzne

Linki wewnętrzne wpływają na indeksację strony internetowej w wyszukiwarkach. Robot wyszukiwarki odwiedzając serwis przechodzi po wszystkich podstronach, do których umieszczony został odnośnik. Jeśli do którejś z podstron serwisu nie prowadzi link nie zostanie ona zindeksowana przez wyszukiwarkę, ponieważ robot jej nie odwiedzi – nie wie o jej istnieniu.

Zazwyczaj poleca się stosowanie słów kluczowych w tekście między znacznikami <a></a>, który to tekst jest widoczny bezpośrednio na stronie. W dodawaniu linków wewnętrznych ze słowami kluczowymi nie wolno przesadzać. Jedna z tez mówi, że jedna strona może zawierać najwyżej jeden odnośnik prowadzący do innej strony – ale to mało prawdopodobne.

Dzięki specyfikacji języka HTML/XHTML możemy jeszcze bardziej wzmocnić siłę naszego linku. Oprócz zastosowania słów kluczowych w opisie odnośnika możemy dodać dwa atrybuty:

  • title – atrybut zawierający dowolny tekstu, a pojawiający się po umieszczeniu kursora myszy nad linkiem
  • alt – atrybut pozwalający na wpisanie alternatywnego tekstu dla przeglądarki nie obsługującej grafiki

Poprawne zastosowanie linkowania wewnętrznego to umieszczenie słowa kluczowego zarówno w tytule linka, jak i w jego opisie. Dzięki czemu wartość strony na dane słowo kluczowe wzrośnie.

Linki JavaScript

Trzeba unikać stosowania linków wykorzystujących JavaScript. Taki link nie zostanie zindeksowany przez wyszukiwarki, ponieważ nie wiadomo dokąd prowadzi. Roboty wyszukiwarek nie potrafią obsługiwać tej technologii.

Geolokalizacja

W celu dokładnego określenia wyników wyszukiwania Google używa geolokalizacji. Jest to metoda opracowana przez firmę Google i umożliwia podanie użytkownikowi najlepszych wyników biorąc pod uwagę fakt z jakiego kraju użytkownik korzysta z Internetu.

Zagadnienie geolokalizacji najlepiej jest przedstawić na poniższym przykładzie. Użytkownik z Polski zadaje zapytanie wyszukiwarce google.pl dotyczące frazy „notebook”. Fraza jest słowem ogólnoświatowym. Wyniki jakie powinno zwrócić Google dla powyższego przypadku to tylko polskie strony. Natomiast użytkownik korzystający z wyszukiwarki google.co.uk otrzyma wyniki ze stronami angielskimi.

Do oceny lokalizacji strony wyszukiwarka Google wykorzystuje parametry:

  • lokalizacja linków kierujących do pozycjonowanej strony,
  • język w jakim jest napisana strona,
  • IP strony pozycjonowanej,
  • końcówka domeny, np. pl, com, de, co.uk.

Podstawowe topologie sieci komputerowych

Każda sieć komputerowa musi być zbudowana w oparciu o pewną strukturę, zwaną inaczej topologią. Najpopularniejsze, w zakresie sieci LAN, są topologie: szynowa, pierścieniowa oraz gwiaździsta.

1. Topologia szynowa:

Topologia szynowa – polega ona na przyłączeniu wszystkich komputerów (czyli węzłów) w sieci do tylko jednego kabla, który będzie wspólny dla wszystkich węzłów. Jeśli jakiś węzeł sieci chce nadać informację to wtedy musi podać na jej początku adres odbiorcy. Każdy węzeł odbiera nadaną informację i dekoduje adres zawarty w nagłówku tej wiadomości. Jeśli adres ten jest adresem danego węzła (komputera), to przejmuje on nadawane dane. Jeśli tak nie jest, węzeł (komputer) ignoruje strumień danych w magistrali i oczekuje na kolejną „porcję” informacji albo rozpoczyna nadawanie (w przypadku, gdy  magistrala jest wolna). Topologia szynowa używana jest najczęściej w sieciach Ethernet oraz LocalTalk.

2. Topologia pierścieniowa:

Topologia pierścieniowa polega na tym, że wszystkie węzły sieci tworzą zamknięty pierścień. W sieciach o tej strukturze każdy węzeł przetwarza aktywnie informacje aktualnie znajdujące się w magistrali. Typowym przykładem sieci opartej o topologię pierścieniową jest sieć światłowodowa FDDI. Jedną z odmian topologii pierścieniowej jest pierścień gwiaździsty, stosowany w sieciach Token Ring przez firmę IBM, wykorzystujący tak zwane urządzenia MAU (Multi-station Access Unit). Do urządzeń MAU dołączane są zarówno stacje robocze jak i serwery. Jednostki MAU umożliwiają usunięcie dowolnego węzła z pierścienia, jak również na łączenie wielu jednostek w duży pierścień.

3. Topologia gwiaździsta:

Topologia gwiaździsta polega na tym, że każdy węzeł sieci przyłączony jest własnym przewodem do urządzenia łączącego – tak zwanego koncentratora (ang. HUB). Topologia ta jest wykorzystywana w jednej z odmian sieci Ethernet – tak zwane 10BaseT.

Poza strukturą fizyczną sieci istnieje jeszcze tak zwana topologia logiczna związana z udostępnianiem magistrali (kanału informacyjnego) węzłom należącym do struktury fizycznej. W sieciach mamy do czynienia głównie z kanałami wielopunktowymi, co znaczy, że wiele urządzeń podłączonych jest do tego samego systemu okablowania. W związku z tym konieczne jest stosowanie adresowania urządzeń, aby wyeliminować konflikty pomiędzy nimi.

Podsumowanie pracy magisterskiej

Głównym celem niniejszej pracy było przedstawienie i porównanie, a następnie wybór najskuteczniejszej z czterech metod pozycjonowania stron internetowych w wyszukiwarce Google.

W wyniku przeprowadzonych badań okazało się, że metoda naturalne jest kompletnie nieskuteczna. Wyniki okazały się niezadowalające w każdym z dwóch badanych przypadków. Należy jednak zaznaczyć, że w świecie pozycjonerów znane są strony www, które są znakomicie pozycjonowane dzięki metodzie naturalnej. Są to jednak jednostkowe przypadki i najczęściej dotyczą stron lub portali społecznościowych czyli witryn tworzonych przez samych internautów.

Badania wykazały, że kolejna z metod to znaczy pozycjonowanie przez optymalizację pod kątem wyszukiwarek jest znacznie skuteczniejsza od poprzedniej. Jednak satysfakcjonujące efekty może przynieść tylko w zastosowaniu do fraz prostych do pozycjonowania. To znaczy takich, gdzie nie ma wielu innych witryn www, które są pozycjonowane na te same słowa kluczowe.

Kolejna metoda pozycjonowania, czyli pozycjonowanie nieetyczne, nie było badane na potrzeby tej pracy. Został jedynie pokazany przykład takiego rodzaju pozycjonowania. Biorąc pod uwagę omówiony serwis www nasuwa się jeden wniosek. Strony pozycjonowanie nieetycznie wcześniej czy później zostaną usunięte z indeksu wyszukiwarki, czyli zostanie na nie nałożony tak zwany ban.

Ostatnia z badanych metod, czyli pozycjonowanie właściwe, okazała się na podstawie przeprowadzonych badań bardzo dobrą metodą pozycjonowania. Wszystkie dwa przykłady witryn www, na wszystkie pozycjonowane słowa kluczowe uzyskały zadowalające rezultaty. Frazy znalazły się również w TOP4, które zapewnia 100 procentową klikalność w odnośnik przez użytkowników przeszukujących wyniki wyszukiwania. Warto zaznaczyć, że dotyczyło to zarówno fraz łatwych jak i trudnych do wypozycjonowania.

Jaka jest przyszłość pozycjonowania? Bardzo ciężko to przewidzieć. Możemy tylko przypuszczać, że algorytmy wyszukiwarek będą coraz bardziej „inteligentne”. Przede wszystkim dzięki zastosowaniu w nich elementów sztucznej inteligencji. Co za tym idzie w coraz łatwiejszy sposób wykrywane będzie pozycjonowanie stron. Przed tym przecież bronią się wyszukiwarki. Jednak moje osobiste zdanie jest takie, że każdy algorytm, nawet najbardziej zaawansowany będzie można obejść i to z pewnością wcześniej czy później uda się pozycjonerom.

Wnioski

Na początku pracy została postawiona teza, że pozycjonowanie właściwe jest zdecydowanie najlepszą metodą pozycjonowania witryn www. Po dogłębnej analizie problemu stwierdzono słuszność tego założenia. Badanie wykonane na potrzeby tej pracy jednoznacznie wskazały tę metodę jako optymalną i najbardziej efektywną.

Pozycjonowanie jest jedyną skuteczną metodą dotarcia na czołowe pozycję w wynikach wyszukiwania.

Optymalizacja stron pod kątem wyszukiwarek jest integralną częścią pozycjonowania.

Pozycjonowanie powinno być realizowane przez profesjonalistów w innym przypadku może zakończyć się zbanowaniem strony.

Cyber Service

Firma Cyber Service jest jedną z pierwszych firm w Polsce, która oparła swój biznes na otwartym systemie operacyjnym GNU/Linux. Obecnie reali­zuje model dostawcy sprzętu (roz. 2.6.2). Firma zarabia na sprzedaży wy­specjalizowanych komputerów przeznaczonych do pełnienia ściśle określonej funkcji w sieciach komputerowych.

Używanie wyspecjalizowanych urządzeń zmniejsza stopień komplikacji systemu informatycznego i obniża koszty związane z jego utrzymaniem i ob­sługą [18]. Dodatkowo też, zjawisko skali związane z masową produkcją wy- standaryzowanego sprzętu, zmniejsza koszty projektowania i wdrożenia roz­wiązań opartych na tym sprzęcie.

Urządzenia produkowane przez Cyber Service zostały nazwane rodzi­ną OpenBIZ, od nazwy systemu operacyjnego OpenBIZ Linux, pod kon­trolą którego działają. OpenBIZ Linux jest adaptacją oprogramowania GNU/Linux, dokonaną przez firmę na potrzeby produkowanych przez sie­bie urządzeń. Wprowadzenie tych zmian było możliwe dzięki licencji GNU GPL i otwartemu kodu źródłowemu systemu GNU/Linux. Natomiast wysoki poziom technologiczny tego oprogramowania, a przede wszystkim jądra Li- nux, umożliwiło realizację i osiągnięcie postawionych wymagań. Istotna jest też ekonomiczno-prawna konsekwencja użycia oprogramowania na licencji GNU GPL jako platformy systemowej produkowanych urządzeń.

Brak opłat licencyjnych zmniejsza koszt jednostkowy pojedynczego komputera i pozwala uniknąć wszelkich komplikacji prawnych związanych z koniecznością zawiera­nia odpowiednich porozumień handlowych. W przypadku gdyby zastosowano zamknięte rozwiązanie, każde urządzenie obarczone byłoby opłatą licencyjną na rzecz producenta oprogramowania.

Dodatkowo, z powodu niedostępno­ści kodu źródłowego i braku możliwości samodzielnego wprowadzania zmian w takim oprogramowaniu, jego adaptacja na potrzeby produkowanego sprzę­tu musiałaby być wykonywana przez dostawcę oprogramowania. Koszty tego mogłyby być większe, niż w przypadku, gdyby firma samodzielnie dokonywa­ła tych zmian i spowodowałoby to dodatkowy wzrost jednostkowego kosztu produkcji.

W związku z powyższym, wykorzystanie przez firmę Cyber Service otwartego oprogramowania GNU/Linux jako platformy systemowej dla pro­dukowanych przez siebie urządzeń, pozwoliło jej stworzyć bardziej atrakcyjną pod względem cenowym, jak i technologicznym ofertę biznesową.

Licencja i prawa autorskie Joomla!

Joomla! jest upowszechniany na zasadach GNU General Public License (GNU GPL)[1].

Powszechna Licencja Publiczna zapewnia swobodę upowszechniania kopii oprogramowania oraz umożliwia pobieranie za to opłat, ale nie pozwala pobierać opłat za samo oprogramowanie. GNU GPL zapewnia swobodę dokonywania zmian w oprogramowaniu lub wykorzystywania jego fragmentów w nowych wolnych programach. Nie można jednak zmieniać treści licencji – nie pozwala na to ani prawo autorskie, ani inne przepisy prawa. Tak więc w sprawie autorskich praw własności można upowszechniać to oprogramowanie i pobierać za tę usługę opłatę. Dozwolone jest dokonywanie dowolnych zmian w oprogramowaniu, zmienianie wyglądu i zawartości oraz pobieranie opłat za tę pracę. Wolne oprogramowanie zapewnia swobodę używania, wykonywania kopii, rozpowszechniania, dostępu do kodu źródłowego, modyfikowania kodu i rozwijania programu.

Precyzyjniej, wolne oprogramowanie oznacza cztery rodzaje wolności użytkowników:

  • wolno wykorzystywać program dla j akiegokolwiek celu,
  • wolno studiować kod programu i dostosowywać go do swoich potrzeb. Dostęp do kodu źródłowego jest niezbędnym warunkiem tej wolności,
  • wolno rozprowadzać kopie programu,
  • wolno ulepszać program i upowszechniać ulepszenia, także dla wspólnej korzyści. Dostęp do kodu źródłowego jest niezbędnym warunkiem tej wolności.

[1]   Polskie Centrum Joomla! [joomla.pl]

Joomla!

„To nadchodzące wydanie będzie świętem dla każdego.

Oznacza ono kontynuację jednego z najlepszych systemów open source bez komercyjnych ograniczeń czy interwencji. ”

– Andrew Eddie (lider projektu Joomla!)

Jeszcze nie tak dawno wobec niekomercyjnych systemów zarządzania treścią podchodzono z dość sporym dystansem, który spowodowany był brakiem zaufania do tego typu aplikacji, ponieważ dotychczasowe nie spełniały swojego zadania tak jak było by to wymagane. Stereotyp ten przełamał system zarządzania treścią Joomla!, który jest bardzo zaawansowanym oprogramowaniem niekomercyjnym. W chwili obecnej w sieci Internet znajduje się około 3772 płatnych i bezpłatnych składników[1] dedykowanych dla systemu Joomla!

Joomla! jest nowoczesnym systemem, który umożliwia tworzenie strony internetowej i zarządzanie nią po instalacji na serwerze. Choć istotą Joomla! jest łatwość i prostota obsługi, to tworzone za jego pomocą projekty są przykładem wykorzystania najnowocześniejszych technologii informatycznych. Joomla! został stworzony w PHP/MySQL, korzysta z XML, DHTML, RSS/RDF, JavaScript umożliwiających dynamiczną zmianę zawartości.

Zaletą jest też fakt, iż Joomla! został ciepło przyjęty przez polskich użytkowników, otrzymał wsparcie polskich serwisów internetowych i został w pełni przetłumaczony na nasz rodzimy język.

Projekt Joomla! jest rozwijany przez użytkowników na całym świecie, co niesie ze sobą zagrożenia, gdyż ci sami użytkownicy mogą wyszukiwać luki oraz błędy w systemie i wykorzystać je do złych celów.


[1] Na podstawie [extensions.joomla.org] 08.2008

Podział sieci komputerowych ze względu na zasięg

Sieci komputerowe w zależności od swego przeznaczenia i wykorzystanego do ich budowy sprzętu oraz oprogramowania posiadają różny, maksymalny zasięg. Rozróżniamy następujące rodzaje sieci:

  • LAN – ang. Local Area Network – LAN jest siecią o małym zasięgu. Sieci tego typu obejmują najczęściej jeden budynek lub zespół sąsiadujących ze sobą budynków. Sieci typu LAN charakteryzują się dużą szybkością transmisji, osiągającą Mb/s, bez użycia dodatkowego sprzętu czy oprogramowania. Potoczna nazwa: sieć lokalna
  • MAN – ang. Metropolitan Area Network – MAN jest siecią, która swym zasięgiem może obejmować całe miasto lub nawet zespół sąsiadujących ze sobą miast. Transmisja w sieciach typu MAN często nie ustępuje szybkością sieciom LAN, jednakże w tym przypadku konieczne jest już zastosowanie dodatkowego sprzętu i oprogramowania. Potoczna nazwa: sieć miejska.
  • WAN – ang. Wide Area Network – WAN jest siecią o nieograniczonym zasięgu, mogącą obejmować dowolny region ziemi. Sieci typu WAN nie zachwycają szybkością transmisji, która przeważnie wynosi od kilku kb/s do kilkuset kb/s. Przy komunikacji modemowej jest to od 300 b/s do 56 kb/s, w technologii ISDN max. 128 kb/s. Istnieją również sieci typu WAN oferujące znacznie większe szybkości transmisji (np.: sieć POLPAK) lecz koszty korzystania z nich są poza sferą dostępności przeciętnego użytkownika czy małego przedsiębiorstwa. Przykładem sieci WAN jest Internet. Potoczna nazwa: sieć rozległa lub sieć globalna.

Mb/s – Megabity na sekundę – 1 Mb/s = ok. 122 kB/s (kilobajtów na sekundę)

kb/s – kilobity na sekundę – 1 kb/s = 125 B/s (bajtów na sekundę)

ISDN – Integrated Services Data Network – Sieć danych z integracją usług (cyfrowa).

Protokoły komunikacyjne. Standardy sieci

Protokoły komunikacyjne definiują sposób przekazywania w sieci pakietów danych. Firma IBM ma własny zestaw protokołów komunikacyjnych o nazwie NETBIOS, natomiast firma Novell stosuje swoją wersję protokołu XNS (Xerox Network System), którą firma Xerox opracowała w celu umożliwienia komunikacji między własnymi produktami. Uwzględnia to również łączenie sieci lokalnych Ethernet ze sobą i z publicznymi sieciami transmisji danych.  Faktycznie w skład zestawu XNS wchodzi wiele protokołów, ale najczęściej korzysta się z dwóch: IPX (Internet Packet Exchange) i SPX (Sequence Packet Exchange). Protokołu SPX używa się wtedy, kiedy system gwarantuje dotarcie jakiegoś komunikatu lub żądania. Protokół ustala wtedy połączenie (tzw. obwód wirtualny) między nadawcą i adresatem. Komunikaty przekazywane przez to łącze otrzymują kolejne numery. Adresat używa tych numerów w celu weryfikacji transmisji: wykrywa komunikaty brakujące, powtórzone lub nadane w niewłaściwej kolejności. Protokół IPX jest prostszy i nie uwzględnia sekwencyjnej numeracji komunikatów. Jeśli nadawca nie otrzymuje odpowiedzi, komunikat jest wysyłany powtórnie. Choć protokół IPX nie jest tak niezawodny jak SPX, to nie powoduje wykonywania nadmiarowych operacji.

Wiele systemów obliczeniowych pracujących z systemem operacyjnym UNIX używa protokołu TCP/IP (Transmission Control Protocol/Internet Protocol) lub NFS. TCP/IP opracowany został przez departament obrony Stanów Zjednoczonych jako fragment prac dotyczących sieci ARPANET – jednej z wczesnych sieci z komutacją pakietów. Protokół IP jest przeznaczony do wysyłania i odbierania pakietów danych w sieci, ale bez pełnej gwarancji niezawodności. Protokół TCP zapewnia niezawodne przekazywanie danych przez tworzone w tym celu połączenia, wykorzystując jako bazę protokół IP.

Firma Sun Microsystems korzysta z zestawu protokołów o nazwie TOPS. Te protokoły działają w warstwie sieciowej i transportowej, a czasem również w warstwie sesji modelu OSI. Zapewniają one również adresowanie węzłów w połączonych ze sobą sieciach.

Wszystkie połączone ze sobą sieci muszą stosować ten sam protokół albo korzystać z mechanizmów translacji protokołów.

Standardy sieci

Topologie sieci są dobrym sposobem wizualizacji sieci, ale aby stworzyć sieć należy korzystać z określonych typów kabli, topologii i urządzeń, które muszą ze sobą współpracować. Każdy standard korzysta z innych kabli, kart sieciowych i innych urządzeń aktywnych.

Aurox Linux

Aurox Linux to spolszczona i odpowiednio zorganizowana, komercyjna dystrybucja otwartego systemu operacyjnego GNU/Linux, zgodna z dystry­bucją firmy Red Hat. Jej założeniem jest prostota instalacji, przyjazność dla użytkownika i przystosowanie do polskich warunków[1] . Realizacja tych zało­żeń dodaje wartość do systemu GNU/Linux i pozwala firmie Aurox stworzyć rynek dla swoich usług.

System GNU/Linux i jego niekomercyjne dystrybucje są przeznaczone przede wszystkim dla użytkowników zorientowanych technicznie. Dla inży­nierów i specjalistów w dziedzinie IT[2]. Zwykły użytkownik, chcący używać tego systemu, ma do wyboru albo zatrudnienie administratora, który zain­staluje i dostosuje oprogramowanie do jego potrzeb [24], albo skorzystanie z jednej z komercyjnych dystrybucji, których założeniem jest uproszczenie instalacji i zarządzania systemem operacyjnym. Drugie rozwiązanie pozwala zazwyczaj rozwiązać większość problemów z jakimi można się spotkać przy używaniu komputera,[3] zaś jego koszt, ze względu na zjawisko skali, jest dużo mniejszy niż cena za korzystanie z usług specjalisty.

Model biznesowy na jakim opiera się działalność firmy Aurox jest po­łączeniem modelu dostawcy usług i dostawcy akcesoriów (rozdział 2.6.2 niniejszej pracy magisterskiej). Zara­bia ona na sprzedaży magazynów Linux+ Extra Aurox i Linux w szkole, do których dołączane są aktualne wersje systemu operacyjnego Aurox Linux. W celu zbudowania silnej marki i zdobycia nowych klientów realizowana jest strategia poszerzania rynku (roz. 2.6.3). Firma prowadzi szkolenia, programy certyfikacyjne oraz organizuje konferencje w celu upowszechniania Otwartego Oprogramowania i systemu GNU/Linux. Szczególnie szeroka oferta edukacyj­na jest kierowana do szkół i placówek oświatowych. Wynikiem tego będzie sprzężenie zwrotne, które uczyni markę firmy bardziej rozpoznawalną i do­prowadzi do wzrostu popytu na jej usługi.


[1]Dystrybucja jest także wydawana w innych wersjach językowych w Europie.

[2]Skrót IT oznacza technologię informacyjną i pochodzi od angielskich słów Information Technology.

[3]Wyjątkiem są specjalistyczne wymagania i zaawansowane rozwiązania w rozbudowa­nych systemach informatycznych.