Սեմալտ. Ի՞նչ է Googlebot- ը:

- Ներածություն
- Ի՞նչ է Googlebot- ը:
- Ինչու՞ պետք է անհանգստանալ Googlebot- ով:
- Ինչու Googlebot- ը չի սողում որոշ կայքերի բոլոր էջերը:
- Ինչպես օպտիմալացնել ձեր կայքը `Googlebot- ի բյուջեն առավելագույնի հասցնելու համար
- Եզրակացություն
Ներածություն
Գիտե՞ք, թե ինչպես է Google- ը ռեսուրսներ գտնում ձեր որոնման համար: Ինչպես լայնորեն տարածված էր կարծիքը, Google- ը ոչ ամեն ինչին տիրապետող հոգի է, որը գիտի, թե ինչ է իրենից ներկայացնում յուրաքանչյուր առցանց բովանդակություն: Դա ինչ -որ հոգեբան չէ, ով գիտի, թե որտեղ է ձեր հարցի ճշգրիտ պատասխանը:
Ինչպես ցանկացած այլ որոնիչ, այն ունի ծրագրակազմ, որն ամեն վայրկյան սողում է միլիարդավոր էջերի (և կայքերի) միջով ՝ տեղեկատվություն հավաքելու համար. հանեք բովանդակության արժեքը և դրա առարկայի թեման: Այնպես որ, երբ որոնում է կատարվում, պատասխանը վերցվում է այդ էջերից `մի տեսակ գրադարանի նման:
Այն շատ նման է SEO- ի, և դա այն պատճառով է, որ այն շատ բան ունի դրա հետ: Երբ կայքը արդյունավետորեն օպտիմիզացված է, Google- ը արագ տեսնում է կայքը, կարդում է իր էջերը և այն հայտնվում է, երբ որոնման համակարգում համապատասխան որոնումներ են կատարվում:
Բայց դա տեղի չի ունենում կայքի բոլոր էջերի համար ՝ կազմելով որոշ էջեր անտեսանելի աշխարհին: Ինչու է դա տեղի ունենում: Իսկ ի՞նչ կարելի է անել դրա դեմ (հատկապես շատ կարեւոր էջերի համար): Ահա ուղեցույց, որը մանրամասն ներկայացնում է Google- ի վեբ կայքի սողունի (Googlebot) մասին, թե ինչու այն չի սողում բավականաչափ էջեր, և ինչպես է վեբ կայքի սեփականատերը կարող օգտվել կայքի օպտիմալացումից և SEO- ից ՝ Googlebot- ի սողացող բյուջեն առավելագույնի հասցնելու համար:
Ի՞նչ է Googlebot- ը:
Սարդ! Սողուն Սրանք հայտնի անուններ են, որոնք տրվում են Googlebot- ին: Դա պայմանավորված է նրանով, որ այն մի տեսակ այդպես է աշխատում: Theրագիրը ստեղծվել է հանրությանը հրապարակված միլիարդավոր կայքերի էջերը սողալու և դիտելու համար:
Rightիշտ է. Եթե կայքը մնում է մասնավոր, Googlebot- ը պարզապես չի կարող սկանավորել իր էջերը, հիշեք, որ սարդը հոգեկան չէ: Այն պարզապես հետևում է էջի հղումներին (մի էջից մյուսը), այնուհետև շարունակում է տվյալների մշակումը: Սա ավարտվելուց հետո տեղեկատվությունը կազմվում է ինդեքսի մեջ (հեշտ է հիշել որպես Goggle գրադարան կամ խանութ):
Այս ծրագրաշարի առկայության պատճառով Google- ը կարող է հավաքել և կուտակել ավելի քան մեկ միլիոն գիգաբայթ (ԳԲ) տեղեկատվություն վայրկյանից պակաս ժամանակում (լավ, հիմա դա կախարդական է): Այնուհետև պարբերաբար թարմացվող այս ինդեքսից Google- ը ռեսուրսներ է վերցնում յուրաքանչյուր առցանց որոնման համար ՝ ինչպես աշխատասեղանի, այնպես էլ բջջային սարքի վրա:
Ինչու՞ պետք է հետաքրքրվել Googlebot- ով:
Googlebot- ի սողալը մի տոննա կապ ունի վեբ կայքի SEO- ի հետ (որոնման համակարգի օպտիմալացում): Սարդի ամբողջ էությունը կայքի էջերից տեղեկատվություն հավաքելն է, որպեսզի երբ առնչվող թեմաներով որոնումներ կատարվեն, այն կարող է էջը ցուցադրել որպես առցանց որոնման արդյունքներից մեկը: Հետևաբար, երբ Googlebot- ը անընդհատ սողում է կայքի էջերի մեծ մասը, տեսանելիությունը կբարձրանա, ինչը կհանգեցնի նման էջի ավելի շատ կայքի տրաֆիկի (ինչը նպատակներից մեկն է չէ՞):
Օգտագործեք այս նկարազարդումը.
X- ն ունի կայք ՝ թեմայով էջով. վեբ կայքերի պրոֆեսիոնալ SEO. Եվ Y- ն որոնում է վեբ կայքի SEO- ն: Եթե Googlebot- ը սողացել է SEO- ի X- ի էջով և ինդեքսավորել այն, դա կլինի Google- ի որոնման արդյունքներում հայտնվող արդյունքներից մեկը: Եվ նույնը տեղի կունենար այլ հարակից որոնումների դեպքում, նույնիսկ եթե դա տեղի ունենար օրական հարյուր անգամ ամբողջ աշխարհում:
Նկատի ունեցեք, որ դրա համար կան նաև այլ ընդգծող գործոններ, ինչպիսիք են կայքի լավ կառուցվածքը, համեմատելի, կայքի արագ բեռնումը: Բայց միայն մի SEO փորձագետ կարող է օգնել երաշխավորել, որ դրանք ճիշտ են արված, և որ կայքի էջը հայտնվի Google- ի որոնման արդյունքների առաջին էջում:
Ինչու Googlebot- ը չի սողում որոշ կայքերի բոլոր էջերը:
Google- ի SEO գրասենյակից մեկի ՝ ժամեր շարունակ Hangouts- ի ընթացքում հարց է հնչել, թե ինչու Googlebot- ը բավականաչափ էջեր չի սողում որոշ կայքերում: Վեբ սերվերին հրապարակայնորեն հրապարակված ավելի քան հարյուր միլիարդ էջ կա: Մարդիկ ամեն օր նոր էջ են հրապարակում սերվերի վրա, ինչը նշանակում է, որ Googlebot- ը ինդեքսավորի ավելի շատ էջեր: Այնուամենայնիվ, երբեմն, բոտը չի աշխատում սպասելիքի չափով. այն է; կուտակել ավելի քան մեկ միլիոն ԳԲ տեղեկատվություն մեկ վայրկյանից պակաս ժամանակում: Կան մի քանի պատճառ, թե ինչու դա կարող է տեղի ունենալ:
Նախ, կարող է լինել, որ ինդեքսավորման համար չափազանց շատ բովանդակություն, էջեր և կայքեր կան առցանց: Եվ ոմանք ցածր որակի են, մյուսները ունեն կայքի բեռնման դանդաղ արագություն, իսկ մնացածը կարող են ունենալ անհամապատասխան բովանդակություն ՝ բարդ կայքի կառուցվածքով (կամ որևէ այլ բան, որը հակասում է լավ օգտագործողի փորձին): Ահա թե ինչու Google- ը ստեղծեց ռազմավարություն ՝ ինդեքսավորելու միայն բարձրորակ վեբ էջերը և բացառելու ավելի ցածրորակ էջերը: Այս կերպ, էջերը կարող են զտվել և կրճատվել (բոլոր էջերը ինդեքսավորելու փոխարեն ՝ ինչպես արժեքավոր, այնպես էլ ոչ արժեքավոր):
Բայց վերը նշվածը լիովին չի պատասխանում հարցին. Ինչու Googlebot- ը չի սողում բոլոր կայքերը: Ավելի շուտ հետաքրքրության հարցն այն է, թե ինչու Googlebot- ը չի սողում կայքի բոլոր էջերը (կամ բավարար էջերը): Եվ դրա համար կա երկու պատասխան. Երկար պատասխանը և կարճ պատասխանը.
Կարճ պատասխան
Google- ը որոշակի ռեսուրսներ և ժամանակ է հատկացնում օրական յուրաքանչյուր կայքի սողալուն: Սա կոչվում է կայքի սողացող բյուջե: Հետևաբար, բոտը կատարում է այս բյուջեի ներսում սողալու և ինդեքսավորելու աշխատանքը: Եվ այսպես, ավելի քան տասը հազար էջ ունեցող վեբ կայքի համար ոչ բոլոր էջերն են ինդեքսավորվելու:
Այնուամենայնիվ, սա ավելին ունի, ինչը մեզ բերում է երկար պատասխանի.
Երկար Պատասխան
Սողալու բյուջեն այն է, ինչը որոշում է այն էջերի քանակը, որոնք Googlebot- ը կարող է սողալ և ինդեքսավորել ամեն օր մեկ կայքի համար: Բայց, ինչպես արդեն նշվեց, սա շատ ավելին ունի: Որոշ գործոններ որոշում են սարդի տեմպը ՝ սողալու բյուջեի շրջանակներում յուրաքանչյուր կայքով սողալիս: Իմաստալի? Դա նշանակում է, որ չնայած բյուջեն սահմանել է, սակայն որոշ գործոններ կարող են կամ արագացնել կամ դանդաղեցնել բոտի տեմպը: Դրանք ներառում են.
- Դանդաղ սերվեր: Եթե սերվերի արձագանքման ժամանակը զգալիորեն դանդաղ է, այն կարող է փոխել արագությունը, որով բոտը սողում է սողալու բյուջեի շրջանակներում յուրաքանչյուր էջի միջոցով: Կայքերի սեփականատերերը կարող են դրանք ստուգել իրենց սողալու վիճակագրության զեկույցում: Խորհուրդ է տրվում, որ այն, ինչ 300 միլիվայրկյանից բարձր է, պատասխանելու լավ ժամանակ չէ:
- Վեբ կայքի սերվեր ՝ Եթե կայքը տեղակայված է ընդհանուր սերվերի վրա, դա կարող է դանդաղեցնել սողալու ընթացքում յուրաքանչյուր էջ Google- ին մատուցվող տոկոսադրույքը: Դա պայմանավորված է նրանով, որ նույն սերվերի այլ կայքեր կարող են դանդաղեցնել դրա գործածումը ՝ օգտագործելով մեծ ռեսուրսներ: Ավելի վատ է, երբ նույն սերվերը հյուրընկալում է բազմաթիվ կայքեր:
- Ռուժ բոտեր. Սրանք այլ բոտեր են, որոնք կարող են խանգարել, արգելափակել կամ դանդաղեցնել Googlebot- ի գործողությունները: Նրանք կարող են հանդես գալ տարբեր ձևերով, և երբեմն, վեբ կայքը կարիք ունի մասնագիտական օգնության ՝ այս բոտերի գործողությունները կառավարելու և վերահսկելու համար:
- Վեբ կայքի ճկունություն. Սա այն չափի հասանելիությունն է, որը սողունն ունի վեբ կայքի բոլոր էջերին: Երբ ծրագրակազմը հեշտությամբ մուտք ունի կայքի բովանդակությանը, շատ էջեր սողալու և ինդեքսավորվելու են սողալու բյուջեի սահմաններում:
Ինչպես օպտիմալացնել ձեր կայքը `Googlebot- ի բյուջեն առավելագույնի հասցնելու համար
Նախորդ բաժնում մենք քննարկեցինք այն գործոնները, որոնք որոշում են, թե որքան արագ (կամ որքան դանդաղ) է Googlebot- ը թերթում էջը: Բայց շատ ավելին կա, քան մարդը կարող է անել, որպեսզի առավելագույնի հասցնի, թե քանի էջ է բոտը սողում բյուջեի սահմաններում: Հակիրճ, ահա մի քանի բան, որոնք կարող է անել վեբ կայքի սեփականատերը ՝ առավելագույնը հասցնելու համար, թե Googlebot- ը որքան էջ է սողում և ինդեքսավորում օրական սողալու բյուջեի սահմաններում:
- Մշակել կայքի քարտեզ. Սա այն բաներից մեկն է, որը կարելի է անել Googlebot- ին ավելի արագ սողալու համար կայքի միջոցով: Կայքի քարտեզը կարող է տեղադրվել, ստեղծվել կայքի քարտեզի գեներատորից կամ ստեղծվել զրոյից:
- Ներդրումներ կատարեք կայքի կազմակերպման մեջ. Սա կապված է վեբ կայքի կառուցվածքի և կայքի ներսում էջերի դասակարգման հետ: Երբ կայքը կառուցված է այնպես, որ այցելուները կարողանան հեշտությամբ ընկալել և կողմնորոշվել իրենց ճանապարհով, մեծ հավանականություն կա, որ Googlebot- ը հեշտությամբ սահի:
- Վեբ կայքի օպտիմալացում. Սա ամփոփում է վերը նշված բոլոր կետերը: Երբ կայքը մշտապես օպտիմալացվում է (ճիշտ եղանակով), վեբ կայքի ինտերֆեյսը ճիշտ կկառուցվի, և կստեղծվի կայքի քարտեզ: Այլ բաներ ներառում են սողունն արգելափակող գործոնների նկատմամբ վերահսկողություն (օրինակ ՝ robots.txt), վերնագրի օպտիմալացում, բովանդակության ընթերցելիություն, բովանդակության արժեք և շատ ավելին: Վեբ կայքի ճիշտ օպտիմալացումը կօգնի Googlebot- ին ավելի արագ սկանավորել նման կայքի էջերը:
Եզրակացություն
Googlebot- ը կարող է դիտվել որպես Google- ի համար աշխատող փոքրիկ ինտերնետ ռոբոտ: Այն շրջում է վեբ սերվերից էջեր ստանալը ՝ վեբ կայքերի հղումների միջոցով: Այնուհետև այն նայում է յուրաքանչյուր էջի միջոցով և ավելացնում այն ինդեքսավորված տեղեկատվության հավաքածուին: Այնուամենայնիվ, մի քանի գործոնների և փոփոխականների պատճառով բոտը չի կարող սողալ յուրաքանչյուր կայքի բոլոր էջերով (իրականում, երբեմն, դա բավարար չէ): Եվ նշված բոլոր գործոններից և լուծումներից ամենահեշտ լուծումը նման ընկերության պրոֆեսիոնալ ընկերություն վարձելն է Սեմալտ որը կարող է անել այն ամենը, ինչ պահանջվում է ճիշտ ձևով և ճիշտ ժամանակին ՝ ապահովելու համար, որ ձեր վեբ կայքի կարևոր էջերը սողան և ինդեքսավորվեն, եթե ոչ բոլոր էջերը: