Ograniczenia superkomputerów Google: Flash, JavaScript

Efektownie animowane grafiki mają za zadanie zwrócić uwagę internautów przywiązujących szczególną wagę ogólnej prezentacji witryny. Jednakże, to co wydaje się być interaktywnym interfejsem, z punktu widzenia robotów wyszukiwarek bywa często nieczytelne.
Podobnie jak w przypadku nieetycznych sposobów pozycjonowania, które bazują na ukrywaniu treści przed robotami, możliwa jest również sytuacja, w której z pozoru zoptymalizowany na doświadczenie użytkownika content strony widoczny w oknie przeglądarki prezentuje treści niezrozumiałe dla botów. Treści nieindeksowalne to widoczna w warstwie aplikacji zawartość stron, o której istnieniu pająki wiedzą, ale jej nie indeksują, są to m.in. pliki audio i filmy, ale także inne rozszerzenia plików stosowanych do projektowania stron WWW.

Czy Google radzi sobie z technologią Flash?

Zastosowanie technologii multimedialnej Flash może prowadzić do rozbieżności między wyglądem strony, jaki wyświetla przeglądarka z zainstalowaną odpowiednią wtyczką, a treścią faktycznie dostępną dla bota. Program wyszukiwarki indeksuje tekst i rozpoznaje hiperłącza zawarte w plikach SWF, ale nie ma możliwości odczytania tekstu o rozszerzeniu pliku graficznego. Z kolei zagnieżdżenie animacji w innych aplikacjach Flash powoduje, że do treści nie prowadzą żadne hiperłącza zewnętrzne, co przesądza o małej mocy rankingowej strony i konsekwentnie, niskiej pozycji w rankingu. Reasumując, rozwiązania Flash są efektowne graficznie, ale utrudniają wdrożenie podstawowych elementów wpływających na pozycję stron w SERPach (m.in. tekstu kotwicy i nagłówków). Optymalna sytuacja zakłada wdrożenie technologii Flash jako co najwyżej dodatkowej ozdoby strony, a nie jej szkieletu, i  udostępnienie robotowi Google odpowiedników tekstowych do materiałów multimedialnych, aby mieć pewność, że treści te zostaną poprawnie zaindeksowane.

Parsowanie kodu JavaScript przez Googlebota

Nie ma także pewności co do sposobu, w jaki bot Google przetwarza dynamiczne elementy stron zaimplementowane w JavaSript, często stosowanego także do uruchamiania animacji Flash. Funkcje JavaScript odpowiadają za tworzenie efektów przejść i animacji, jednak nie są wykonywane przez roboty wyszukiwarek, przez co oskryptowany content jest niewidoczny dla crawlerów, lub też zostanie przetworzony w sposób inny niż zamierzony. Jeżeli treść strony nie wyświetla się bez udziału interpretera JavaScript (domyślnie jest uruchomiony w każdej z aktualnych wersji przeglądarek) prawdopodobnie nie zostanie zaindeksowana, gdyż pająki nie będą mieć do niej dostępu.

Googlebot radzi sobie z analizą statyczną skryptów coraz lepiej, nie jest ona tak efektywna jak zwykłego HTML. Crawlery wyszukują adresy URL zakotwiczone w JavaScript, ale nie mają możliwości określenia istotności mocy (ang. juice) backlinków.
W celu sprawdzenia, w jakim stopniu pliki .js zostały zaindeksowane, należy założyć konto w Narzędziach dla Webmasterów Google.