събота, 7 ноември 2015 г.

Какво представляват роботите на търсачките

Това са програми, наричани още паяци. Както вече споменах в предна статия, освен основните роботи, с цел повишаване на качеството и сигурността при търсене, както и за да се спре манипулацията на основните роботи се наложи създаването на нови. В тази статия ще разгледам видовете. Информацията, която ще предоставя не е 100% сигурна и е писана въз основа на мои проучвания. Само създателите на тези роботи знаят точно как те работят. Със сигурност това са отделни роботи защото минават през сайтовете индивидуално, когато тимът на Гугъл си реши. Преминаването на роботите/паяците се осъществява по вътрешни връзки (от страница на страница във сайт) и външни връзки (преминаване от сайт в сайт).

  1. Основни роботи - това са постоянно действащите роботи, които извличат съдържанието на сайтовете и ги подреждат по подобие в база данни. Те също така следят колко често и кога се обновява съдържанието на сайт. Може да се опитате да извлечете някой сайт, както основен робот го прави от тук: https://developers.google.com/structured-data/testing-tool/


  2. Penguin - робот алгоритъм създаден на 24-ти април 2012 година. Роботът, който буквално повечето от SEO хората мразят. До преди създаването му беше доста лесно да се класира сайт само с използването на софтуеър за създаване на външни връзки и няколко натискания на мишката или чрез изкуствено създадени сайтове, които да бъдат използвани за външни връзки (private network). Това е робот, който следи качеството, количеството и времето за създаване на външни връзки. С други думи:
    - количество и времето за създаване - ако имате сайт на 3 месеца, които има 100 външни връзки и 5 посетителя на ден, това е явно направено с цел манипулация на основните роботи и по всяка вероятност сайтът ще бъде наказан от робота и де-класиран.
    - качество - ако сайтът ви е на тема мъжко бельо а външните връзки са от сайтове за автомобили, финанси, медицина... по всяка вероятност Penguin няма да класират сайта ви защото по-всичко личи, че са създадени изкуствено с цел манипулиране на основните роботи
  3. Panda
- робот алгоритъм създаден почти едновременно с Пенгвин (несигурна информация и някои специалисти казват, че това е стар алгоритъм, който просто е подновен). Целта му е да следи за качеството на съдържанието. Преди раждането/подновяването му беше достатъчно са се вмъкнат няколко ключови думи на точното място в съдържанието на сайт и той да се класира лесно. Също беше лесно да се "открадне" чуждо съдържание и да се преработи до вид на уникално. Можеше и да се класира статия просто преведена от английски с Гугъл транслейт. Вече не! Базата данни на търсещите машини е обновена с добавяне на синоними (въпреки, че към днешна дата за български език това не се случва и роботите го бъркат с руски и македонски това ще се случи). В момента за Гугъл "Продавам автомобили евтино" и "Предлагам коли на изгодни цени" е едно и също (пак повтарям - за България още не). Така, че ако копирате и преработите по този начин съдържание да кажем от уикипедиа, тогава Панда няма да позволи класиране на сайта.


     4. Humminbird - (колибри). Последният създаден алгоритъм (след него има само обновяване на старите). Това е смесица между последните два робота, който следи по-бързо и прецизно (като колибри). Наричан от някои хора "интелигентен" той може да разбере дали съдържанието отговаря на въпроси, за които на търсещият човек е нужен отговор. След създаването му за пореден път се промени пренареждането в класирането и сега не заглавната, а точната страница с отговора излиза най-отгоре.

Няма коментари:

Публикуване на коментар