Archiwum

Archiwum dla Sierpień, 2011

Krótko o katalogach internetowych

Sierpień 30th, 2011 Brak komentarzy

katalogi internetowe

Jednym z działań seo jest umieszczanie witryny w katalogach internetowych. W większości z nich, aby dodać stronę trzeba wypełnić formularz zgłoszeniowy (m.in. podać e-mail, dodać słowa kluczowe i opis).

Istnieje kilka dużych katalogów, do których warto dodać stronę, np.: Yahoo! Directory (http://dir.yahoo.com) i Open Directory (www.dmoz.org).

 

Gdzie umieszczać linki do swojej strony internetowej:

katalogi niszowe – są niewielkie, ale dzięki nim można uzyskać pożyteczny ruch. Aby znaleźć katalogi niszowe z naszej branży wystarczy wpisać w wyszukiwarkę: np. katalog Francja przewodnik,

– katalogi, które zawierają wpisy konkurencji,

– katalogi, które wyświetlają się dla docelowych słów kluczowych,

– strony, które znajdują się na wysokich pozycjach dla naszych słów kluczowych,

– katalogi lokalne i regionalne,

– dodawanie w komentarzach na blogach, na forach, itp.

 

Pająki i roboty w wyszukiwarkach internetowych

Sierpień 11th, 2011 Brak komentarzy

roboty i pająki w wyszukiwarkachDzisiaj trochę informacji o pająkach w internecie, zwanych też robotami. Pająki co jakiś czas odwiedzają naszą stronę, zbierają informację o niej i indeksują treść, dzięki temu strona pojawia się w wynikach wyszukiwania.

Aby zobaczyć stronę internetową tak, jak ją widzi pająk/robot należy wpisać adres witryny na stronie: http://www.seo-browser.com

Jeśli podejrzewasz, że roboty mogą nie wykryć wszystkich Twoich stron witryny, zastanów się nad utworzeniem mapy XML Sitemap.

Robots.txt

Robots.txt to plik, który jest otwierany przez roboty w czasie wizyty w witrynie. Plik może zawierać informacje jakie strony wyłączyć z indeksowania. Jeśli nie zastosuje się takiego pliku, wszystkie roboty będą mieć swobodny dostęp do każdej strony witryny. Plik robots.txt można wygenerować automatycznie na stronie głównej Narzędzi dla webmasterów lub sporządzić go samodzielnie.

Istnieją dwie podstawowe zasady w pliku robots.txt:

User-agent – robot, którego dotyczy dana reguła. Lista dostępnych robotów znajduje się na stronie: http://www.robotstxt.org/db.html

Disallow – adres URL, plik, folder, który ma być blokowany

Disallow: / – aby zablokować całą witrynę, należy użyć ukośnika.

* – oznacza wszystkie roboty


Tak wygląda przykładowy plik robots.txt, który nie indeksuje folderu mojearchiwum:

User-agent: googlebot

Disallow:/mojearchiwum/

Plik robots.txt musi znajdować się w katalogu głównym domeny i mieć nazwę ,,robots.txt„.

 

Meta robots

Podobną rolę pełnią znaczniki meta robots. Za pomocą tego znacznika można zablokować roboty tylko dla jednej strony. W tym celu należy umieścić w kodzie html:

<meta name=”robots” content=”noindex, nofollow”>

Strony wyłączone za pomocą znacznika meta robots w ogóle nie są wyświetlane na listach wyników.

 

 

 

Optymalizacja strony internetowej

Sierpień 4th, 2011 Brak komentarzy

Optymalizując witrynę musimy pamiętać o wykonywaniu wielu małych zmian, które przyczynią się do lepszej pozycji strony.

optymalizacja strony internetowejZnaczniki meta

Słowa kluczowe, czyli <keywords> nie są najważniejsze dla seo, jednak każda strona i podstrona powinna mieć swoje słowo kluczowe.

Tytuł strony, czyli <title> jest bardzo ważnym elementem witryny. Powinien zawierać słowa kluczowe. Każda strona i podstrona powinna posiadać unikalny tytuł. Tytuł może zawierać nazwę firmy, ale lepiej pominąć slogan organizacji. Dobrze sprawdzają się tytuły z Dużymi Pierwszymi Literami. Najlepsza długość tytułu to ok. 40-60 znaków.

Opis, czyli <description> jest ważny dla optymalizacji witryny. Pojawia się m.in. przy wynikach wyszukiwania, wyszukiwarki wyświetlają około 150 znaków w opisie. Powinien to być raczej tekst o firmie, inny niż tytuł strony. Należy dodać słowa kluczowe.

 

Tekst

Kilka zaleceń:

– na każdej stronie witryny powinny znaleźć się 2-3 wyrażenia kluczowe;

– lepiej zastąpić grafikę tekstem ze słowami kluczowymi;

– umieścić chociaż raz na stronie nazwę firmy w formie tekstowej;

– w odnośnikach umieszczać słowa kluczowe;

– dodawać słowa kluczowe w opisach pod zdjęciami;

– dodawać opisy (słowa kluczowe) w stopce i nagłówkach;

– stosować pogrubienia słów kluczowych.

 

Odnośniki wewnętrzne

Odnośniki mają dużą wartość dla seo. Warto jako odnośniki używać wyrażeń kluczowych. Strony nie powinny być oddalone od siebie o więcej niż 5 kliknięć.

Analiza danych internetowych

Sierpień 3rd, 2011 Brak komentarzy

google analyticsNa rynku znajduje się wiele programów do analizy danych dotyczących ruchu na stronie www. Posiadając niewielką firmę lub nową stronę internetową najlepiej zapoznać się z bezpłatnym narzędziem jakie udostępnia Google, czyli Google Analytics.

Najważniejsze wskaźniki jakie warto obserwować to:

– liczba niepowtarzalnych użytkowników (uu);

– liczba wyświetleń stron;

– źródła wejść oraz słowa kluczowe, których szukają użytkownicy;

– strony najczęściej odwiedzane;

– wskaźnik odrzuceń – ile osób opuściło witrynę;

– czas spędzony na stronie.

Na stronie Google Analytics – http://www.google.com/analytics można założyć konto, zarejestrować swoją witrynę i zacząć korzystać z narzędzia. Google Analytic oferuje pomoc, liczne materiały video do nauki oraz bloga.