सेमल्ट एक्सपर्ट: ए गाइड टू रिलिंग फ्रॉम गूगल फ्रॉम क्रॉलिंग ओल्ड साइटमैप

जैसे-जैसे आपकी वेबसाइट बढ़ती है, आप पूरी कोशिश करेंगे कि इंटरनेट पर इसकी दृश्यता और विश्वसनीयता में सुधार हो। कभी-कभी, हमारी साइटें कैसे काम करती हैं, इसका प्रभाव पीछे रहता है और यहीं हमें ध्यान देना चाहिए।

Google को पुरानी साइटों को क्रॉल करने से रोकने के लिए, सेमल्ट के ग्राहक सफलता प्रबंधक, मैक्स बेल से निम्नलिखित युक्तियों के बारे में जानें

कुछ हफ्ते पहले, मेरे एक ग्राहक ने मुझे बताया कि उसकी एक ई-कॉमर्स वेबसाइट थी। यह विभिन्न परिवर्तनों से गुजरा: URL संरचना से साइटमैप तक, साइट को अधिक दृश्यमान बनाने के लिए सब कुछ संशोधित किया गया था।

ग्राहक ने अपने Google खोज कंसोल में कुछ बदलावों को देखा और वहां क्रॉल त्रुटियों को पाया। उसने क्या देखा कि बड़ी संख्या में पुराने और नए URL थे जो नकली ट्रैफ़िक उत्पन्न कर रहे थे। हालाँकि, उनमें से कुछ एक्सेस अस्वीकृत 403 और नॉट फाउंड 404 त्रुटियां दिखा रहे थे।

मेरे ग्राहक ने मुझे बताया कि उनके पास सबसे बड़ी समस्या एक पुराना साइटमैप है जो रूट फ़ोल्डर में मौजूद था। उनकी वेबसाइट ने पहले Google XML साइटमैप प्लगइन्स का उपयोग किया था, लेकिन अब वह साइटमैप के लिए Yoast द्वारा वर्डप्रेस एसईओ पर निर्भर था। हालाँकि, विभिन्न पुराने साइटमैप प्लग इन ने उसके लिए एक गड़बड़ पैदा कर दी। वे साइट फ़ोल्डर में मौजूद थे जिसका नाम साइटमैप। Xml.gz था। चूँकि उन्होंने सभी पोस्ट, पृष्ठ श्रेणियों और टैग के लिए साइटमैप बनाने के लिए योस्ट प्लगइन्स का उपयोग करना शुरू कर दिया था, इसलिए उन्हें अब उन प्लगइन्स की आवश्यकता नहीं थी। दुर्भाग्य से, व्यक्ति ने साइटमैप को Google खोज कंसोल में सबमिट नहीं किया था। उसने केवल अपना Yoast साइटमैप जमा किया था, और Google अपने पुराने साइटमैप को भी क्रॉल कर रहा था।

क्या क्रॉल करना है?

उस व्यक्ति ने पुराने साइटमैप को रूट फ़ोल्डर से नहीं हटाया था, इसलिए वह भी अनुक्रमित हो रहा था। मैं उसके पास वापस गया और समझाया कि साइटमैप केवल एक सुझाव है कि खोज इंजन परिणामों में क्या क्रॉल किया जाना चाहिए। आप शायद सोचते हैं कि पुराने साइटमैप को हटाने से Google को विचलित URL क्रॉल करने से रोक दिया जाएगा, लेकिन यह सच नहीं है। मेरा अनुभव कहता है कि Google दिन में कई बार हर पुराने URL को अनुक्रमित करने का प्रयास करता है, जिससे यह सुनिश्चित होता है कि 404 त्रुटियां वास्तविक हैं और दुर्घटना नहीं।

Googlebot पुराने और नए लिंक की मेमोरी को स्टोर कर सकता है जो इसे आपकी साइट के साइटमैप में मिलेगा। यह नियमित अंतराल पर आपकी वेबसाइट पर जाता है, यह सुनिश्चित करता है कि हर पृष्ठ सही ढंग से अनुक्रमित हो। यदि लिंक वैध या अमान्य हैं तो Googlebot मूल्यांकन करने की कोशिश करता है ताकि आगंतुकों को किसी समस्या का अनुभव न हो।

यह स्पष्ट है कि वेबमास्टर्स भ्रमित हो जाएंगे जब उनके क्रॉल त्रुटियों की संख्या बढ़ जाएगी। वे सभी इसे बहुत हद तक कम करना चाहते हैं। सभी पुराने साइटमैप की उपेक्षा करने के लिए Google को कैसे सूचित करें? आप सभी अवांछित और अजीब साइटमैप क्रॉल को मारकर ऐसा कर सकते हैं। पहले, इसे संभव बनाने का एकमात्र तरीका था .htaccess फाइलें। हमें कुछ प्लगइन्स प्रदान करने के लिए वर्डप्रेस के लिए धन्यवाद।

वर्डप्रेस वेबसाइटों में यह फाइल उनके रूट फोल्डर में होती है। तो, आपको बस एफ़टीपी का उपयोग करने और cPanel में छिपी फ़ाइलों को सक्षम करने की आवश्यकता है। अपनी आवश्यकता के अनुसार इस फ़ाइल को संपादित करने के लिए फ़ाइल प्रबंधक विकल्प पर जाएँ। आपको यह नहीं भूलना चाहिए कि इसे गलत तरीके से संपादित करना आपकी साइट को नुकसान पहुंचा सकता है, इसलिए आपको हमेशा सभी डेटा का बैकअप लेना चाहिए।

एक बार जब आप फ़ाइल में स्निपेट जोड़ लेते हैं, तो समय-समय पर आपके सभी क्रॉल किए गए URL आपके क्रॉल त्रुटियों से गायब हो जाएंगे। आपको यह नहीं भूलना चाहिए कि Google चाहता है कि आप अपनी साइट को लाइव रखें, 404 त्रुटियों की संभावना कम हो।