یک فایل متنی ساده در ریشه (root) سایت که حاوی دستورالعملهایی برای رباتهای خزنده است تا بدانند کدام صفحات را میتوانند بررسی کنند و کدامها ممنوع هستند.
- ✅ نکته کلیدی: این فایل برای جلوگیری از ایندکس شدن نیست، بلکه برای مدیریت ترافیک رباتهاست.
آنچه در این مقاله میخوانید:

فایل robots.txt چیست؟ و نحوه نوشتن آن چگونه است؟
robots.txt بخشی از پروتکل “Robots Exclusion Protocol” است. این فایل متنی باید دقیقاً در پوشه اصلی (Root Directory) هاست شما قرار بگیرد (مثلاً example.com/robots.txt). اگر آن را در پوشهای دیگر بگذارید، رباتها آن را پیدا نخواهند کرد.Googlebot (ربات) 🕷️
⬇️
درخواست فایل robots.txt
⬇️
آیا فایل وجود دارد؟
├── ❌ خیر: ربات شروع به خزش (Crawl) تمام سایت میکند.
└── ✅ بله: ربات دستورات را میخواند.
⬇️
[بررسی قوانین]
├── Allow: اجازه ورود ✅
└── Disallow: ورود ممنوع ⛔
بهینهسازی Crawl Budget با robots.txt
- صرفهجویی در منابع: اگر سایت شما هزاران صفحه بیارزش (مثل نتایج فیلتر محصولات، صفحات پرینت، یا پنل ادمین) داشته باشد و رباتها آنها را خزش کنند، ممکن است قبل از رسیدن به مقالات مهم یا محصولات جدید شما، سایت را ترک کنند.
- کاهش بار سرور: کنترل رباتهای جستجو باعث میشود درخواستهای (Requests) کمتری به سرور ارسال شود که در نتیجه سرعت سایت برای کاربران واقعی افزایش مییابد.
- ایندکس سریعتر: وقتی رباتها در مسیرهای فرعی گم نشوند، محتوای اصلی سریعتر ایندکس میشود.
دستورات Disallow و Allow در robots.txt و نحوه استفاده
1- User-agent (مخاطب دستور)
User-agent: *: یعنی این قانون برای همه رباتها اعمال شود.User-agent: Googlebot: یعنی این قانون فقط مخصوص ربات گوگل است.
2- Disallow (ممنوعیت)
Disallow: /admin/: یعنی ورود به پوشه ادمین ممنوع.Disallow: /: یعنی ورود به کل سایت ممنوع (خطرناک!).
3- Allow (اجازه)
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php 
آموزش عملی ساخت و ویرایش فایل (سناریو محور)
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
Disallow: /?s=
Disallow: /search/
Disallow: /wp-content/plugins/
Sitemap: [https://yourdomain.com/sitemap_index.xml](https://yourdomain.com/sitemap_index.xml) User-agent: *
Disallow: / User-agent: *
Disallow: /*.pdf$ بلاک کردن رباتهای هوش مصنوعی (AI Bots)؛ چالش جدید 2025
robots.txt مسدود کنید.- GPTBot: ربات اصلی OpenAI برای جمعآوری دادههای آموزشی ChatGPT.
- ChatGPT-User: رباتی که وقتی کاربران ChatGPT لینک سایتی را باز میکنند، فعال میشود.
- CCBot: ربات Common Crawl که دیتابیس عظیمی برای آموزش بسیاری از مدلهای هوش مصنوعی میسازد.
- Google-Extended: ربات گوگل برای جمعآوری داده جهت آموزش مدلهای Gemini و Bard (جدا از جستجوی گوگل).
- anthropic-ai: ربات شرکت Anthropic برای مدل Claude.
- Bytespider: ربات شرکت ByteDance (تیکتاک).
# Block OpenAI (ChatGPT training data)
User-agent: GPTBot
Disallow: /
# Block ChatGPT user browsing
User-agent: ChatGPT-User
Disallow: /
# Block Common Crawl (Used by many AIs)
User-agent: CCBot
Disallow: /
# Block Anthropic (Claude AI)
User-agent: anthropic-ai
Disallow: /
# Block Google's AI Training (Gemini)
User-agent: Google-Extended
Disallow: /
# Block ByteDance (TikTok AI)
User-agent: Bytespider
Disallow: / Google-Extended باعث حذف سایت شما از نتایج جستجوی گوگل نمیشود؛ فقط از استفاده محتوا برای آموزش هوش مصنوعی گوگل جلوگیری میکند. اما بلاک کردن Googlebot باعث حذف کامل سایت از نتایج میشود.تست و اعتبارسنجی فایل robots.txt در Search Console
- وارد Google Search Console شوید.
- اگر دسترسی به ابزار قدیمی (Legacy Tools) دارید، گزینه
Robots.txt Testerرا پیدا کنید (یا از ابزارهای آنلاین معتبر استفاده کنید). - آدرس یک صفحه از سایت را وارد کنید (مثلاً صفحهای که Disallow کردهاید).
- دکمه Test را بزنید.
- اگر نوار قرمز شد و نوشت
Blocked، یعنی دستورات شما به درستی کار میکنند.

| دستور اشتباه | نتیجه فاجعهبار | دستور صحیح |
|---|---|---|
Disallow: / | کل سایت از گوگل حذف میشود | Disallow: /private-folder/ |
| بلاک کردن CSS/JS | گوگل سایت را زشت و بهمریخته میبیند | عدم استفاده از Disallow برای پوشه استایلها |
user-agent (تایپ غلط) | دستورات نادیده گرفته میشوند | User-agent |
| استفاده از کاراکترهای فارسی | فایل غیرقابل خواندن میشود | فقط کاراکترهای استاندارد انگلیسی |
خدمات سرور مجازی وبداده
- ✅ دسترسی Root: با خرید سرور مجازی وبداده، شما پادشاه سرور خود هستید و میتوانید هر تنظیماتی را اعمال کنید.
- ✅ سرعت بالا (NVMe): سرعت پاسخگویی سرورهای ما باعث میشود بودجه خزش شما هدر نرود (رباتها عاشق سایتهای سریع هستند).
- ✅ پشتیبانی فنی: اگر در نوشتن کدهای robots.txt شک دارید، تیم فنی ما راهنمای شماست.
نتیجهگیری: کنترل crawl کردن وب سایت توسط رباتهای جستجو
Disallow و Allow، شما میتوانید کنترل رباتهای جستجو را به دست بگیرید، در منابع سرور صرفهجویی کنید و مطمئن شوید که گوگل دقیقاً همان چیزی را میبیند که شما میخواهید. فقط به یاد داشته باشید: “قدرت زیاد، مسئولیت زیاد میآورد”. همیشه قبل از اعمال تغییرات نهایی، فایل خود را تست کنید.سوالات متداول از آموزش کامل robots.txt برای کنترل رباتهای جستجو
1- آیا استفاده از robots.txt برای حذف سایت از گوگل کافی است؟
خیر. فایل robots.txt فقط به ربات میگوید “اینجا را نخوان”. اگر سایت شما از جای دیگری لینک شده باشد، ممکن است آدرس آن در نتایج گوگل ظاهر شود (بدون توضیحات). برای حذف کامل، باید از تگ noindex استفاده کنید.
2- آیا میتوانم فایل robots.txt را بسازم حتی اگر دانش کدنویسی ندارم؟
بله، بسیاری از افزونههای سئو (مثل Yoast SEO یا RankMath در وردپرس) امکان ویرایش این فایل را به صورت گرافیکی به شما میدهند و نیازی به کدنویسی دستی یا دسترسی FTP نیست.
3- حد مجاز حجم فایل robots.txt چقدر است؟
گوگل معمولاً تا 500 کیلوبایت از این فایل را پردازش میکند. اگر فایل شما بزرگتر باشد، ممکن است دستورات انتهایی نادیده گرفته شوند. اما برای اکثر سایتها، این فایل کمتر از 2 کیلوبایت است.
4- چگونه بفهمم چه صفحاتی را باید Disallow کنم؟
صفحاتی که محتوای تکراری دارند، صفحات جستجوی داخلی سایت، صفحات پنل کاربری، سبد خرید (قبل از نهایی شدن) و پوشههای سیستمی اسکریپتها، کاندیداهای اصلی برای بلاک شدن هستند.





