Roboty wyszukiwarek internetowych

Wyjściowym punktem do rozpoczęcia optymalizacji strony i jej pozycjonowania jest umiejętny dobór wyrazów, zdań oraz poprawne ich redagowanie pod kątem pozyskania klienta. Strona internetowa musi być przyjazna nie tylko temu, kto ma z niej skorzystać, ale także mechanizmom, które śledzą aktywność i jakość stron internetowych. Atrakcyjność strony internetowej badają roboty wyszukiwarek. Roboty Google i inne przetwarzają informacja zawarte na stronie www, klasyfikując je. Robot wyszukiwarki to mechanizm, który patrzy na stronę internetową poprzez pryzmat treści zapisanej na stronie, a nie poprzez kwestie atrakcyjności graficznej strony www. Tekst na stronie internetowej powinien być przede wszystkim merytoryczny, ale przy tym i okraszony pewnego rodzaju sformułowaniami, które są typowe dla użytkownika internetu. Proces indeksacji w Google obejmuje zarówno pliki tekstowe jako i np. dokumenty PDF. Optymalizacja strony internetowej prowadzi do tego, by możliwie dużo stron zindeksować. Linki, które nie zostały zindeksowane stają się nieistotne. Ten, kto optymalizuje stronę internetową musi wskazać robotom wyszukiwarek czy mają czy nie mają indeksować daną stronę i podążać lub nie podążać za jej linkami. Robot internetowy czyli robot indeksujący to program do badania struktury linków zamieszczonych w internecie, który wyłapuje nowe informacje o stronie.