فهرست مطالب
گوگل تایید کرده که عدم دسترسی با فایل robots.txt به تنهایی نمیتواند جلوی همه رباتهای مزاحم را بگیرد. به همین دلیل، کارشناسان سئو باید با روشهای دیگری هم از محتوای مهم سایتشان محافظت کنند.
از طرف دیگر، متخصصان بینگ گفتهاند که خیلی از وبسایتها سعی میکنند با استفاده از robots.txt بخشهای حساس سایتشان را پنهان کنند. اما این کار نه تنها مشکلی را حل نمیکند، بلکه ممکن است اطلاعات مهمی را در معرض دید هکرها قرار دهد.
به عبارت دیگر، خیلی از سایتها اطلاعات محرمانهای دارند و به جای اینکه این اطلاعات را به درستی محافظت کنند، سعی میکنند با استفاده از یک روش ساده و ناکارآمد جلوی دسترسی دیگران به آنها را بگیرند.
مناقشه همیشگی سر عدم دسترسی با فایل robots.txt
هر وقت پای فایل robots.txt وسط میآید، یکی پیدا میشود که بگوید: «آخه این فایل که نمیتونه همه رو بندازه بیرون!»
گری هم همینو میگه: «میگن robots.txt جلوی هرکسی رو نمیگیره، این یه حرف خیلی معمولیه. راستش هم هست، ولی کسی که سر در بیاره از این فایل، همچین ادعایی نمیکنه.»
بعد شروع میکنه به توضیح دقیق این که مسدود کردن خزندهها یعنی چی. میگه مسدود کردن یعنی این که سایت خودش تصمیم بگیره کی بیاد تو، یا این که این تصمیم رو به خود خزنده واگذار کنه. مثلاً وقتی یه وبسایت ازت رمز عبور میخواد، داره خودش تصمیم میگیره که کی اجازه ورود داره. اما فایل robots.txt بیشتر شبیه یه تابلوئه که مینویسه: «لطفا وارد نشوید!» ولی خب خیلیا بهش توجه نمیکنن.
گری میگه: «برای این که بتونی کسی رو از ورود به یه جای خاص منع کنی، باید یه راهی باشه که اون شخص رو بشناسی. مثلاً فایروالها با آدرس آیپی، یا سایتها با رمز عبور این کارو میکنن. اما فایل robots.txt فقط یه درخواسته، نه یه دستور. بیشتر شبیه اون نردههای فرودگاهیه که همه دوست دارن ازش رد بشن، ولی نمیتونن.»
خلاصه این که، گری میگه فایل robots.txt یه ابزار سادهست و برای همه کارها مناسب نیست. اگه میخوای سایتت رو محکم ببندی، باید از ابزارهای قویتری استفاده کنی.
برای کنترل رباتها، ابزار مناسب را انتخاب کنید
راههای زیادی برای مقابله با رباتهای مزاحم وجود دارد. این رباتها ممکن است بخواهند محتوای سایت شما را بدزدند، به آن آسیب بزنند یا فقط ترافیک بیمورد ایجاد کنند.
یکی از راههای خوب، استفاده از یک فایروال است. فایروالها میتوانند بر اساس رفتار رباتها، آدرس اینترنتی آنها، نوع نرمافزاری که از آن استفاده میکنند و حتی کشورشان، آنها را شناسایی و مسدود کنند.
ابزارهای رایج برای این کار عبارتند از:
- نرمافزارهای سرور: مانند Fail2Ban
- سرویسهای ابری: مثل Cloudflare WAF
- افزونههای وردپرس: مثل Wordfence
نکته مهم:
فایل robots.txt نمیتواند از محتوای شما به طور کامل محافظت کند. این فایل فقط به موتورهای جستجو میگوید که کدام قسمتهای سایت شما را اسکن کنند و کدام قسمتها را نه. برای جلوگیری از دسترسی غیرمجاز به محتوایتان، به ابزارهای امنیتی قویتری نیاز دارید.
پست گری ایلیس در لینکدین را بخوانید: