नमस्कार दोस्तों, आज हम इस आर्टिकल में Robots.txt File के बारे में विस्तार से जानेंगे। यदि आप अभी तक यह नहीं जानते कि Robots.txt File क्या होती है, इसका उपयोग कैसे किया जाता है और यह आपकी वेबसाइट के लिए क्यों जरूरी है, तो यह लेख आपके लिए बेहद उपयोगी होगा।
कई नए ब्लॉगर और डिजिटल मार्केटर को इसका नाम तो सुनने को मिलता है लेकिन सही तरीके से इसे बनाने और उपयोग करने की जानकारी नहीं होती। इसलिए आज हम आपको सरल भाषा में बताएंगे कि Robots.txt File क्या है, इसे कैसे बनाते हैं और यह SEO के लिए क्यों जरूरी है।
Robots.txt File Kya Hai?
Robots.txt एक साधारण टेक्स्ट फाइल होती है जो आपकी वेबसाइट के सर्वर पर रखी जाती है। इस फाइल के जरिए आप सर्च इंजन क्रॉलर (Search Engine Bots) को बताते हैं कि आपकी वेबसाइट के कौन से पेज Crawl (यानी पढ़कर इंडेक्स) किए जाएं और किन पेजों को नज़रअंदाज़ किया जाए।
आसान परिभाषा
हर वेबसाइट की Robots.txt File एक निर्देशिका (instruction) की तरह होती है, जो सर्च इंजन बॉट्स को यह बताती है कि कौन से पेज क्रॉल करने हैं और कौन से नहीं।
Robots.txt File के फायदे
- यह सर्च इंजन को बताता है कि वेबसाइट के किन पेजों को इंडेक्स करना है और किन्हें नहीं।
- आप किसी फाइल, फोल्डर, इमेज या PDF को Search Engine Indexing से रोक सकते हैं।
- इसके माध्यम से वेबसाइट का कोई पूरा सेक्शन Private किया जा सकता है।
- इससे आप Low-Quality Pages को ब्लॉक करके अपनी वेबसाइट के Technical SEO को बेहतर बना सकते हैं।
- Robots.txt के जरिए वेबसाइट को अनावश्यक पेजों से सुरक्षित रखा जा सकता है और SEO परफॉर्मेंस सुधारी जा सकती है।
Robots.txt File का Basic Syntax
- User-Agent: यह बताने के लिए कि किस सर्च इंजन बॉट के लिए निर्देश लागू होंगे।
- सभी बॉट्स के लिए:
User-Agent: *
- केवल Google के लिए:
User-Agent: googlebot
- केवल Bing के लिए:
User-Agent: bingbot
- सभी बॉट्स के लिए:
- Allow: इसमें उन पेज या फोल्डर का Path लिखा जाता है जिन्हें Crawl और Index कराना हो।
- Disallow: इसमें उन पेज या फोल्डर का Path लिखा जाता है जिन्हें सर्च इंजन से छिपाना हो।
Example 1 – सभी सर्च इंजन बॉट्स के लिए Allow करना
User-Agent: *
Allow: /wp-content
Disallow: /wp-content/plugins/
Disallow: /wp-admin/
Example 2 – केवल Googlebot के लिए Allow करना
User-Agent: googlebot
Allow: /wp-content
Disallow: /wp-content/plugins/
Disallow: /wp-admin/
Example 3 – केवल Bingbot के लिए Allow करना
User-Agent: bingbot
Allow: /wp-content
Disallow: /wp-content/plugins/
Disallow: /wp-admin/
किसी Website की Robots.txt File कैसे देखें?
किसी भी वेबसाइट की Robots.txt File देखना बहुत आसान है। बस अपने ब्राउज़र में उस वेबसाइट का डोमेन खोलें और उसके आगे /robots.txt
जोड़ दें।
👉 Example: https://www.example.com/robots.txt
निष्कर्ष
दोस्तों, उम्मीद है कि इस आर्टिकल से आपको Robots.txt File के बारे में पूरी जानकारी मिल गई होगी। अब आप जान गए होंगे कि यह फाइल क्या है, इसका उपयोग क्यों और कैसे किया जाता है। यदि जानकारी अच्छी लगी हो तो इसे अपने दोस्तों के साथ शेयर करें।
सी भी वेबसाइट की Robots.txt File कैसे देखें?
Ans: वेबसाइट URL के बाद /robots.txt
लिखकर देख सकते हैं।
Q2. Robots.txt File का उपयोग क्यों किया जाता है?
Ans: यह बताने के लिए कि कौन से पेज क्रॉल और इंडेक्स होंगे और किन्हें सर्च इंजन से छिपाना है।
Q3. किसी वेबपेज की Crawling कैसे रोकी जा सकती है?
Ans: Robots.txt File में Disallow कमांड का उपयोग करके।
Q4. Robots.txt File कहाँ मिलती है?
Ans: यह फाइल आपकी वेबसाइट के Root Folder में होती है।
Q5. यदि Robots.txt File न हो तो क्या होगा?
Ans: ऐसे में सर्च इंजन आपके सभी पेज Crawl और Index कर लेगा जिससे अनचाहे पेज भी दिखाई देंगे और सिक्योरिटी पर असर पड़ सकता है।