यदि आप Google खोज कंसोल में “खोजे गए – वर्तमान में अनुक्रमित नहीं” देखते हैं, तो इसका मतलब है कि Google URL के बारे में पता है, लेकिन अभी तक इसे क्रॉल और अनुक्रमित नहीं किया गया है।
यह जरूरी नहीं है कि पृष्ठ कभी भी संसाधित नहीं किया जाएगा। जैसा कि उनका प्रलेखन कहता है, वे बाद में आपके हिस्से पर किसी भी अतिरिक्त प्रयास के बिना वापस आ सकते हैं।
लेकिन अन्य कारक Google को पेज को रेंगने और अनुक्रमित करने से रोक सकते हैं, जिसमें शामिल हैं:
- सर्वर मुद्दे और ऑनसाइट तकनीकी मुद्दे Google की क्रॉल क्षमता को प्रतिबंधित या रोक रहे हैं।
- पृष्ठ से संबंधित मुद्दे, जैसे गुणवत्ता।
आप Google खोज कंसोल निरीक्षण API का उपयोग उनके लिए urls कतार में करने के लिए भी कर सकते हैं coverageState
स्थिति (साथ ही अन्य उपयोगी डेटा बिंदु) एन मास।
Google खोज कंसोल के माध्यम से अनुक्रमण का अनुरोध करें
यह एक स्पष्ट संकल्प है और, अधिकांश मामलों के लिए, यह इस मुद्दे को हल करेगा।
कभी -कभी, Google केवल नए URL को क्रॉल करने के लिए धीमा होता है। ऐसा होता है। लेकिन अंतर्निहित मुद्दे अन्य बार अपराधी हैं।
जब आप अनुक्रमण का अनुरोध करते हैं, तो दो चीजों में से एक हो सकता है:
- URL “क्रॉल किया गया – वर्तमान में अनुक्रमित नहीं है।”
- अस्थायी अनुक्रमण।
दोनों अंतर्निहित मुद्दों के लक्षण हैं।
दूसरा होता है क्योंकि अनुक्रमण का अनुरोध करना कभी -कभी आपके URL को एक अस्थायी “ताजगी को बढ़ावा देता है” देता है जो URL को अपेक्षित गुणवत्ता सीमा से ऊपर ले जा सकता है और बदले में, अस्थायी अनुक्रमण हो जाता है।
न्यूज़लेटर सर्च मार्केटर्स पर भरोसा करें।
शर्तें देखें।
पृष्ठ गुणवत्ता के मुद्दे
यह वह जगह है जहाँ शब्दावली भ्रामक हो सकती है। मुझसे पूछा गया है, “अगर यह अभी तक क्रॉल नहीं किया गया है तो Google पृष्ठ की गुणवत्ता को कैसे निर्धारित कर सकता है?”
यह अच्छा प्रश्न है। इसका उत्तर यह है कि यह नहीं कर सकता।
Google डोमेन पर अन्य पृष्ठों के आधार पर पृष्ठ की गुणवत्ता को मानता है। उनके वर्गीकरण इसी तरह URL पैटर्न और वेबसाइट आर्किटेक्चर पर आधारित हैं।
नतीजतन, इन पृष्ठों को “जागरूकता” से क्रॉल कतार में स्थानांतरित करना समान पृष्ठों पर पाई गई गुणवत्ता की कमी के आधार पर अव्यवस्थित किया जा सकता है।
यह संभव है कि समान URL पैटर्न या साइट आर्किटेक्चर के समान क्षेत्रों में स्थित पृष्ठों में समान उपयोगकर्ता इरादों और कीवर्ड को लक्षित करने वाली सामग्री के अन्य टुकड़ों की तुलना में कम-मूल्य का प्रस्ताव है।
संभावित कारणों में शामिल हैं:
- मुख्य सामग्री गहराई।
- प्रस्तुति।
- सहायक सामग्री का स्तर।
- सामग्री और दृष्टिकोण की विशिष्टता की पेशकश की।
- या इससे भी अधिक हेरफेर करने वाले मुद्दे (यानी, सामग्री कम गुणवत्ता और ऑटो-जनित, स्पून, या सीधे डुप्लिकेट पहले से स्थापित सामग्री है) है।
साइट क्लस्टर और विशिष्ट पृष्ठों के भीतर सामग्री की गुणवत्ता में सुधार करने पर काम करना अधिक उद्देश्य के साथ आपकी सामग्री को क्रॉल करने में Google की रुचि पर शासन करने पर सकारात्मक प्रभाव डाल सकता है।
आप वेबसाइट पर अन्य पृष्ठों को भी कर सकते हैं, जो आप स्वीकार करते हैं कि साइट पर खराब गुणवत्ता वाले पृष्ठों के लिए अच्छी गुणवत्ता वाले पृष्ठों के अनुपात में सुधार करने के लिए उच्चतम गुणवत्ता के नहीं हैं।
क्रॉल बजट और दक्षता
क्रॉल बजट एसईओ में अक्सर गलत समझा तंत्र है।
अधिकांश वेबसाइटों को इस बारे में चिंता करने की आवश्यकता नहीं है।
Google की गैरी इलियस रिकॉर्ड पर चली गई है, जिसमें दावा किया गया है कि शायद 90% वेबसाइटों को क्रॉल बजट के बारे में सोचने की आवश्यकता नहीं है। इसे अक्सर उद्यम वेबसाइटों के लिए एक समस्या के रूप में माना जाता है।
दूसरी ओर, क्रॉल दक्षता, सभी आकारों की वेबसाइटों को प्रभावित कर सकती है। अनदेखी, यह उन मुद्दों को जन्म दे सकता है कि Google वेबसाइट को कैसे क्रॉल और संसाधित करता है।
स्पष्ट करने के लिए, यदि आपकी वेबसाइट:
- मापदंडों के साथ URL को डुप्लिकेट करता है।
- स्लैश के बिना और बिना हल करता है।
- HTTP और HTTPS पर उपलब्ध है।
- मल्टीपल सबडोमेन (जैसे, https://website.com और https://www.website.com) से सामग्री परोसता है।
… तब आपके पास दोहराव के मुद्दे हो सकते हैं जो व्यापक साइट मान्यताओं के आधार पर क्रॉल प्राथमिकता पर Google की मान्यताओं को प्रभावित करते हैं।
आप अनावश्यक URL और अनुरोधों के साथ Google के क्रॉल बजट को ज़प कर सकते हैं।
यह देखते हुए कि Googlebot भागों में वेबसाइटों को क्रॉल करता है, यह Google के संसाधनों को आगे बढ़ा सकता है, जो कि सभी नए प्रकाशित URL को जितनी तेजी से खोजने के लिए पर्याप्त रूप से नहीं बढ़ सकता है।
आप अपनी वेबसाइट को नियमित रूप से क्रॉल करना चाहते हैं, और यह सुनिश्चित करना चाहते हैं:
- पृष्ठ एक एकल उपडोमेन (वांछित के रूप में) के लिए हल करते हैं।
- पृष्ठ एकल HTTP प्रोटोकॉल के लिए हल करते हैं।
- मापदंडों के साथ URL रूट (वांछित के रूप में) के लिए विहित हैं।
- आंतरिक लिंक अनावश्यक रूप से रीडायरेक्ट का उपयोग नहीं करते हैं।
यदि आपकी वेबसाइट मापदंडों का उपयोग करती है, जैसे कि ईकॉमर्स उत्पाद फ़िल्टर, तो आप रोबोट्स.टीएक्सटी फ़ाइल में उन्हें अस्वीकार करके इन यूआरआई रास्तों के रेंगने पर अंकुश लगा सकते हैं।
आपका सर्वर यह भी महत्वपूर्ण हो सकता है कि Google आपकी वेबसाइट को क्रॉल करने के लिए बजट को कैसे आवंटित करता है।
यदि आपका सर्वर अतिभारित है और बहुत धीरे -धीरे जवाब दे रहा है, तो रेंगने वाले मुद्दे उत्पन्न हो सकते हैं।
इस मामले में, GoogleBot पृष्ठ तक पहुंचने में सक्षम नहीं होगा, जिसके परिणामस्वरूप आपकी कुछ सामग्री क्रॉल नहीं हो रही है।
नतीजतन, Google संभवतः वेबसाइट को अनुक्रमित करने के लिए बाद में वापस आने का प्रयास करेगा, जो निस्संदेह पूरी प्रक्रिया में देरी का कारण होगा।
रेंगने और अनुक्रमण के बीच संबंध
कई वर्षों से, हमने माना है कि रेंगने और अनुक्रमण के बीच एक मात्रात्मक संबंध है।
इन वर्षों में, हमने देखा है कि URL “सूचकांक से बाहर गिर जाते हैं” यदि वे हर 75 से 140 दिनों में कम से कम एक बार क्रॉल नहीं किए गए हैं।

विचरण की संभावना इस बात पर निर्भर करती है कि URL “लोकप्रिय” और “मांग में” कैसे है या है।
उपरोक्त ग्राफ, जिसे मैंने अप्रैल में टेक एसईओ शिखर सम्मेलन में साझा किया था, मल्टी-मिलियन यूआरएल वेबसाइटों पर यूआरएल इंडेक्सिंग वक्र और अंतिम क्रॉल डेट पर इसके सहसंबंध को दर्शाता है।
एसईओ उद्योग में साझा किए गए नए डेटा ने “130 दिनों” को बेंचमार्क होने के रूप में परिभाषित किया है, और यह उस कथा के साथ संरेखित करता है जिसे हमने वर्षों से देखा है।
आंतरिक संबंध
जब आपके पास एक वेबसाइट होती है, तो एक पृष्ठ से दूसरे पृष्ठ पर आंतरिक लिंक होना महत्वपूर्ण है।
Google आमतौर पर URL पर कम ध्यान देता है जिसमें कोई भी या पर्याप्त आंतरिक लिंक नहीं होता है – और यहां तक कि उन्हें इसके सूचकांक से भी बाहर कर सकता है।
आप क्रॉलर के माध्यम से पन्नों के आंतरिक लिंक की संख्या की जांच कर सकते हैं जैसे कि मेंढक और साइटबुल्ब चिल्लाने वाले।
अपनी वेबसाइट का अनुकूलन करने के लिए आंतरिक लिंक के साथ एक संगठित और तार्किक वेबसाइट संरचना की आवश्यकता होती है।
लेकिन अगर आपको इससे परेशानी होती है, तो यह सुनिश्चित करने का एक तरीका है कि आपके सभी आंतरिक पृष्ठ जुड़े हुए हैं, HTML साइटमैप का उपयोग करके क्रॉल गहराई में “हैक” करना है।
ये उपयोगकर्ताओं के लिए डिज़ाइन किए गए हैं, न कि मशीनों के लिए। यद्यपि उन्हें अब अवशेष के रूप में देखा जा सकता है, फिर भी वे उपयोगी हो सकते हैं।
इसके अतिरिक्त, यदि आपकी वेबसाइट में कई URL हैं, तो उन्हें कई पृष्ठों के बीच विभाजित करना बुद्धिमानी है। आप उन सभी को एक पेज से लिंक नहीं करना चाहते हैं।
आंतरिक लिंक का भी उपयोग करने की आवश्यकता है <a>
जावास्क्रिप्ट कार्यों पर भरोसा करने के बजाय आंतरिक लिंक के लिए टैग onClick()
।
यदि आप एक Jamstack या JavaScript ढांचे का उपयोग कर रहे हैं, तो जांच करें कि यह या किसी भी संबंधित पुस्तकालय आंतरिक लिंक को कैसे संभालते हैं। इन्हें टैग के रूप में प्रस्तुत किया जाना चाहिए।