Pozycjonowanie stron - pozycjoner
Blog pozycjonera

Cloaking 2.0

Opublikowano dnia Thursday, 20 August 2009 przez Łukasz Jarzembowski

Cloaking to technika używana przez pozycjonerów (głównie spamerów;), która polega na prezentowaniu pajączkom wyszukiwarki treści odmiennych niż te, które są prezentowane użytkownikom strony. Do tej pory (wydanie 1.0) odbywało się to w następujący sposób:

W kodzie PHP strony tworzony był warunek:

<php
if(strpos($_SERVER['HTTP_USER_AGENT'],’google’)!==false) {
// tu treść strony dla Google
exit();
}
// dalej treść strony dla użytkownika
?>

Oczywiście Google w międzyczasie dojrzało i pajączki tej wyszukiwarki zaczęły się przedstawiać (zmienna HTTP_USER_AGENT) jako Mozilla lub Internet Explorer. Pozycjonerzy również ewoluowali i obecność GoogleBot’a rozpoznawali po IP z którego przychodziło odwołanie do strony.

Trzecim stadium rozwoju cloakingu było rozpoznawanie botów po plikach cookie. Założenie spamerów jest takie, że GoogleBot jest tylko “starą przeglądarką tekstową”*, która nie akceptuje cookie, więc użytkownikowi akceptującemu cookie można dać “standardową” treść, a nieakceptującemu - spam.

Od jakiegoś czasu mamy jednak Web 2.0**, które przekłada się również na branżę SEO.

Google zmieniło funkcjonalność atrybutu rel=”nofollow”, wprowadziło tag rel=”canonical” i dotychczasowe techniki kształtowania PageRank’u nie przynoszą już takich efektów jak kiedyś. Czas więc wymyślić coś nowego. Niech więc tą nowością, czy też “powiewem świeżości” w świecie SEO będzie:

Cloaking 2.0

Inspiracją do tego pojęcia (jak i całego artykułu) był tekst Cezarego Lecha o nowym mechanizmie  Page Rank Sculpting. Muszę przyznać, że już ok. miesiąc temu zastosowałem poradę dotyczącą używania hasha (#) w URL’ach w moim projekcie dotyczącym pozycjonowania przez blipowanie. Jednak na samych hash’ach nie poprzestałem…

Hash + CSS + JavaScript

Najlepsze efekty według mnie uzyskamy gdy połączymy SEO-friendly hash’a z JavaScript’em i stylami CSS. Oto case SEOBlip.pl:

Tworząc nową odsłonę serwisu mającego pomóc wyszukiwarkom indeksować (i pozycjonować) linki, które polecają użytkownicy Blipa zależało mi, aby użytkownicy mogli w przyszłości linkować do swoich statusów na SeoBlipie tak jak to robią do zwykłego Blipa. Jednakże serwowanie wyszukiwarkom contentu < 160 znaków nie ma sensu (IMHO podstrony http://blip.pl/s/numerek są bez  wartości nie tylko dla wyszukiwarek :/). Trzeba więc było zagregować powiązane tematycznie statusy i przedstawiać je razem na wspólnych podstronach.

Rozwiązanie więc było proste: przed każdym statusem trzeba było wstawić kotwicę, aby użytkownikowi klikającemu w link od razu pokazał się odpowiedni status. W ten sposób jednak użytkownik oprócz pożądanego statusu widział wszystkie inne, które niekoniecznie były z nim powiązane (przynajmniej w sensie, na jakim zależało osobie linkującej do statusu). W tym momencie pomocny okazał się JavaScript, a konkretnie bardzo fajny framework do tego języka - jQuery.

Wystarczyło dosłownie kilka linijek kodu, aby ukryć przed użytkownikiem niepożądane statusy, zostawiając tylko ten, o który chodziło osobie linkującej. Źródło wygląda w ten sposób:

<script type="text/javascript" src="http://URL_do_biblioteki_jQuery"></script>
<script type="text/javascript">
<!--
/* sprawdzamy, czy strona została wywołana z hash’em (#) */
hash=self.document.location.hash.substring(1);
if (hash)
{
/* jeżeli tak, to po załadowaniu strony… */
$(document).ready(
function()
{
/* ukrywamy wszystkie warstwy o klasie “status” */
$(”div.status”).hide();
/* i pokazujemy tylko tę o id odpowiadającemu odwołaniu w hashu */
$(”div#”+hash).show();
}
)
}
//–>
</script>

Jak widać nie ma w tym kodzie żadnej filozofii. W praktyce wygląda to tak: jeden status, wszystkie zagregowane statusy. Robot wyszukiwarki (o ile się nie mylę), nigdy nie otworzy strony z hashem, więc nawet jeżeli rozumie JavaScript - nie wykona kodu ukrywania ukrywania warstw (cloaking) i nie zostaniemy posądzeni o SPAM.

White Hat SEO?

Czy zatem jest to technika w 100% bezpieczna? Na dzień dzisiejszy chyba tak. W najbliższej przyszłości zapewne również, gdyż samo Google zaczyna z niej korzystać. Ponadto rekomendują używanie hashy w linkach zawierających dane kampanii Analytics.

Polecam więc zainteresować się Web 2.0′wymi narzędziami nie tylko do tworzenia “fajnych ficzerów” na strony, ale również do jej optymalizacji pod kątem SEO.

* - IMHO stwierdzenie to już od dawna nie jest aktualne. Chcesz sprawdzić jak robot Google widzi Twoją stronę? Zainstaluj sobie Google Chrome ;-)

** - pojęcie Web 2.0 oznacza dla mnie nie tylko “internet spolecznościowy”, ale również “aplikacje internetowe działające bez przeładowywania strony”

Jeżeli spodobał Ci się ten wpis, proszę go
lub poleć przez inne serwisy społecznościowe: dodajdo    
Łukasz Jarzembowski Łukasz Jarzembowski, autor bloga - od 2006 roku łudzi się, że będzie bogaty... ;-) ale nadal ciężko nad tym pracuje. Programuje, bloguje, i pozycjonuje, tworząc i promując swoje e-biznes­y. kontakt
 

Wpisy podobne do "Cloaking 2.0"

    No related posts

Skomentuj