ПОИСКОВЫЙ РОБОТ

Поисковый робот (веб-краулер, web crawler) — специальная программа, входящая в состав каждой поисковой системы. Основная задача робота: сканирование веб-страниц, известных поисковой системе, с целью обновления данных об их содержимом, а также поиск новых страниц, еще не включенных в индекс.



Смотреть больше слов в «Словаре компьютерных терминов»

ПОЛОСА ПРОКРУТКИ →← ПОИСКОВАЯ СИСТЕМА

T: 77 M: 3 D: 3