Webmester honlap - Robots-Text

Egy robots.txt feladata abból áll, hogy a keresők spider-jaival szemben bizonyos oldalakhoz vagy jegyzékekhez a hozzáférést megtagadja. Ez nem jelent automatikus védelmet a hozzáférés ellen, sőt minden websurfer, akit érdekel, le tudja hivni egy browser segítségével. Egy robots.txt elkészitése nem feltétlenül szükséges, de ajánlatos, hiszen a spider-ek automatikusan keresik őket, és először ott tudakozódnak. Programozásuk nagyon körűltekintöen végzendő, mert egy túl agresszívan dolgozó spider könnyen túlterheli a szervert, amelyen a letöltött dokumentumok találhatók.

A User-Agent a Spider-re vonatkozik. A * mint egy Joker használandó és azt jelenti, hogy a megadott adatok minden Spider-re érvényesek.

minden robot felkérve
Egy üres fájl ugyanazt a célt zolgálja. User-agent: *
Disallow:

minden robot kizárva
User-agent: *
Disallow: /

bizonyos jegyzékektöl minden robotot távol tartani
User-agent: *
Disallow: /nem fontos
Disallow: /cgi-bin/

Egy bizonyos robot kizárva (pl. Scooter)
User-agent: Scooter
Disallow: /

Egy bizonyos robotot felkérni (pl. WebCrawler)
User-agent: Slurp.so
Disallow:

Többféle fájlt kizárni
# az én robotom Info
User-agent: *
Disallow: /janos.htm
Disallow: /abc.htm

Kommentárokat így illeszthet be:
# az én kommentárom

Tartalom:

Az ajánlattételt kérjük mindkét e-mail címre küldeni ats [at] ats-group [pont] net