W 2005 roku Google opublikowało protokół pozwalający twórcom stron przygotowywać mapy stron. Są to pliki XML zawierające linki do wszystkich podstron witryny, datę ostatniej ich modyfikacji, ważność oraz częstotliwość z jaką roboty indeksujące mają ją odwiedzać. W ten sposób autorzy witryn mają wpływ na to, jakie treści ze strony znajdą się w wyszukiwarce. Wyszukiwarkom pozwala to na inteligentniejsze i szybsze indeksowanie. Tak przygotowane mapy można zgłaszać, nie czekając aż robot odwiedzi naszą stroną kolejny raz. Dzięki temu, nasz nowy artykuł na blogu, czy post na forum będą szybciej widoczne w wynikach wyszukiwania.
Ręczne tworzenie plików map w przypadku dynamicznych stron jest praktycznie niemożliwe i mija się z celem. Jakiś czas temu stanąłem przed takim problemem. Ponieważ nie mogłem znaleźć gotowego rozwiązania które spełniałoby moje oczekiwania, napisałem klasę realizującą to zadanie.

Do tematu lokalnego serwera można podejść na kilka sposobów. Pierwszym i naturalnym jest samodzielne ściągnięcie paczek, instalacja i konfiguracja. O ile ten sposób ma swoje zalety, to ma także sporo wad. Głównym problemem może okazać się przebrnięcie przez pliki konfiguracyjne. Drugim rozwiązaniem jest użycie gotowego narzędzia, które wykona konfigurację za nas. Do niedawna byłem zwolennikiem pierwszego rozwiązania. Dziś polecam pakiet
Wczorajszy wieczór przyniósł dobrą, zarówno dla mnie, jak i dla użytkowników wiadomość. Ale od początku. Hobbystycznie prowadzę serwis skracający linki