Търсачките като Google са част от това, което прави интернет толкова мощен. С няколко натискания на клавиши и натискане на бутон се появяват най -подходящите отговори на вашия въпрос. Но чудили ли сте се как работят търсачките? Уеб сканерите са част от отговора.
И така, какво е уеб робот и как работи?
Какво е уеб робот?
Когато търсите нещо в търсачка, двигателят трябва бързо да сканира милиони (или милиарди) уеб страници, за да покаже най -подходящите резултати. Уеб сканерите (известни още като паяци или ботове за търсачки) са автоматизирани програми, които „обхождат“ интернет и компилират информация за уеб страници по лесно достъпен начин.
Думата „обхождане“ се отнася до начина, по който уеб роботите обхождат интернет. Уеб сканерите са известни още като „паяци“. Това име идва от начина, по който обхождат мрежата - например как паяците пълзят по паяжините си.
Уеб сканерите оценяват и събират данни на възможно най -много уеб страници. Те правят това, така че данните да са лесно достъпни и да се търсят, поради което те са толкова важни за търсачките.
Мислете за уеб робот като редактор, който съставя индекса в края на книгата. Работата на индекса е да информира читателя къде в книгата се появява всяка ключова тема или фраза. По същия начин уеб робот създава индекс, който търсачката използва за бързо намиране на подходяща информация за заявка за търсене.
Какво е индексиране при търсене?
Както споменахме, индексирането при търсене е сравнимо с съставянето на индекса в задната част на книга. В известен смисъл индексирането при търсене е като създаване на опростена карта на интернет. Когато някой зададе въпрос на търсачката, търсачката го пуска през индекса си и най -подходящите страници се появяват на първо място.
Но как търсачката знае кои страници са подходящи?
Индексирането при търсене се фокусира основно върху две неща: текстът на страницата и метаданните на страницата. Текстът е всичко, което виждате като четец, докато метаданните са информация за тази страница, въведена от създателя на страницата, известен като „мета тагове“. Мета таговете включват неща като описание на страницата и мета заглавие, които се появяват в търсенето резултати.
Търсачките като Google ще индексират целия текст на уеб страница (с изключение на някои думи като „the“ и „a“ в някои случаи). След това, когато терминът се търси в търсачката, той бързо ще претърси индекса си за най -подходящата страница.
Как работи уеб робот?
Уеб роулер работи както подсказва името. Те започват от известна уеб страница или URL и индексират всяка страница на този URL адрес (през повечето време собствениците на уебсайтове изискват от търсачките да обхождат определени URL адреси). Когато попаднат на хипервръзки на тези страници, те ще съставят списък със „задачи“, които ще обхождат по-нататък. Уеб роулерът ще продължи това за неопределено време, следвайки определени правила за това кои страници да обхождат и кои да игнорират.
Уеб сканерите не обхождат всяка страница в интернет. Всъщност се изчислява, че само 40-70% от интернет е индексирано с търсене (което все още е милиарди страници). Много уеб роулери са проектирани да се фокусират върху страници, за които се смята, че са по -„авторитетни“. Авторитетен страниците отговарят на няколко критерия, което ги прави по-вероятно да съдържат висококачествени или популярни информация. Уеб роулерите също трябва постоянно да посещават страници, докато се актуализират, премахват или преместват.
Един последен фактор, който контролира кои страници ще обхожда уеб робот, е протоколът robots.txt или протокол за изключване на роботи. Сървърът на уеб страница ще съдържа файл robots.txt, който определя правилата за всеки уеб роулер или други програми, които имат достъп до страницата. Файлът ще изключи обхождането на определени страници и връзките, които роботът може да следва. Една от целите на файла robots.txt е да ограничи напрежението, което ботовете поставят върху сървъра на уебсайта.
За да предотвратите достъпа на уеб робот до определени страници на вашия уебсайт, можете да добавите маркера „disallow“ чрез robots.txt файл или добавете noindex мета маркер към въпросната страница.
Каква е разликата между пълзене и остъргване?
Изстъргването в мрежата е използването на ботове за изтегляне на данни от уебсайт без разрешение на този уебсайт. Често изстъргването в мрежата се използва по злонамерени причини. Изстъргването в мрежата често отнема целия HTML код от конкретни уебсайтове, а по -напредналите скрепери също ще вземат CSS и JavaScript елементи. Инструменти за изстъргване в мрежата може да се използва за бързо и лесно компилиране на информация по конкретни теми (да речем, списък с продукти), но също така може да се заблуди сиви и незаконни територии.
Обхождането на мрежата, от друга страна, е индексирането на информация в уебсайтове с разрешение, така че те да могат лесно да се показват в търсачките.
Примери за уеб робот
Всяка голяма търсачка има един или повече уеб ролери. Например:
- Google има Googlebot
- Bing има Bingbot
- DuckDuckGo има DuckDuckBot.
По -големите търсачки като Google имат специфични ботове за различни фокуси, включително изображения на Googlebot, видеоклипове на Googlebot и AdsBot.
Как обхождането на уеб засяга SEO?
Ако искате страницата ви да се показва в резултатите от търсачката, тя трябва да е достъпна за уеб роботите. В зависимост от сървъра на уебсайта Ви, може да искате да разпределите определена честота на обхождане, кои страници да сканира и какъв натиск могат да окажат върху вашия сървър.
По принцип искате уеб роботите да се усъвършенстват на страници, пълни със съдържание, но не и на страници като благодарствени съобщения, администраторски страници и вътрешни резултати от търсенето.
Информация на една ръка разстояние
Използването на търсачки се превърна във второ естество за повечето от нас, но повечето от нас нямат представа как работят. Уеб сканерите са една от основните части на ефективната търсачка и ефективно индексират информация за милиони важни уебсайтове всеки ден. Те са безценен инструмент както за собствениците на уебсайтове, посетителите, така и за търсачките.
Може би си мислите, че програмистите и уеб разработчиците вършат същата работа, но това е далеч от истината. Ето основните разлики между програмисти и уеб разработчици.
Прочетете Напред
- Обяснена технология
- Търсене в мрежата
- Търсене в Google
- Трикове за търсене
Джейк Харфийлд е писател на свободна практика, базиран в Пърт, Австралия. Когато не пише, обикновено е навън в храста и снима местна дива природа. Можете да го посетите на www.jakeharfield.com
Абонирайте се за нашия бюлетин
Присъединете се към нашия бюлетин за технически съвети, рецензии, безплатни електронни книги и изключителни оферти!
Щракнете тук, за да се абонирате