فهرست مطالب
نمیخوام دروغ بگم: انجام یک بررسی عمیق سئو واقعاً کار بزرگیه.
و به عنوان یک مشاور سئو، جملاتی بهتر از “گزارش شما عالیه! کی میتونیم شما رو وارد تیم کنیم؟” وجود نداره.
حتی اگه به دنبال یک شغل جدید نباشید، اینکه بدونید گزارش سئوی شما موفق بوده، یک اعتماد به نفس فوقالعاده میده.
اما آیا شروع این کار شما رو میترسونه؟ آیا این اولین بار شماست که یک بررسی سئو انجام میدید؟ یا شاید نمیدونید از کجا باید شروع کنید؟
ارسال یک گزارش سئو فوقالعاده به مشتری بالقوه، شما رو در بهترین موقعیت ممکن قرار میده.
پس عجله نکنید. یادتون باشه: هدف اصلی شما اینه که با توصیههای سایتتون، هم در کوتاهمدت و هم بلندمدت به مشتری ارزش اضافه کنید.
در این مقاله، من مراحل ضروری برای انجام یک بررسی سئو رو جمعآوری کردم و یه نگاه کوتاهی هم به اولین مرحله از فرآیندهایی که وقتی یه مشتری جدید میگیرم، دارم، میاندازم. در بخشهای زیر، این مراحل رو به تفکیک توضیح دادم. اگه فکر میکنید با یه بخش خوب آشنا هستید، میتونید به بخش بعدی برید.
چه زمانی باید یک بررسی سئو انجام دهم؟
بعد از اینکه یک مشتری بالقوه ایمیلی ارسال میکند و تمایل به همکاری نشان میدهد و به نظرسنجی من پاسخ میدهد، یک تماس ابتدایی (ترجیحاً از طریق اسکایپ یا گوگل هنگآوت) ترتیب میدهیم.
قبل از تماس، یک بررسی سریع سئو به صورت دستی انجام میدهم (حداقل یک ساعت برای تحقیق دستی اختصاص میدهم) بر اساس پاسخهای نظرسنجی آنها تا با بازار آنها آشنا شوم. این شبیه به قرار گذاشتن با کسی است که قبلاً هرگز او را ندیدهاید.
قطعاً قرار است آنها را در فیسبوک، توییتر، اینستاگرام و همه کانالهای عمومی دیگر بررسی کنید. #مثل_یه_ردیاب
اینجا نمونهای از نظرسنجی من هست:
سوالات کلیدی که باید در اولین ملاقات از مشتری بپرسید:
- اهداف کلی کسبوکار شما چیست؟ اهداف کانالهای شما (روابط عمومی، شبکههای اجتماعی و غیره) چیست؟
- مخاطب هدف شما چه کسی است؟
- آیا شریکهای تجاری دارید؟
- وبسایت شما چند وقت یکبار بهروزرسانی میشود؟ آیا یک توسعهدهنده وب یا بخش آیتی دارید؟
- آیا تا به حال با یک مشاور سئو کار کردهاید؟ یا قبلاً کاری در زمینه سئو انجام دادهاید؟
سوجان پاتل هم پیشنهادات عالیای در مورد سوالاتی که باید از یک مشتری جدید سئو بپرسید دارد.
بعد از تماس، اگر احساس کنم ما با هم سازگار هستیم، پیشنهاد رسمی و قرارداد خود را ارسال میکنم (مرسی از HelloSign که این کار را برای من آسان کرده!).
برای شروع، همیشه دوست دارم به مشتریهایم یک ماه آزمایشی پیشنهاد بدهم تا مطمئن شویم با هم خوب کار میکنیم.
این ماه به من و مشتری فرصتی میدهد تا ابتدا با هم آشنا شویم. در طول این ماه، وقت کافی را برای انجام یک بررسی عمیق سئو اختصاص میدهم.
این سئو آدیتها میتوانند بین ۴۰ تا ۶۰ ساعت زمان ببرند، بسته به اندازه وبسایت. این آدیتها به سه بخش جداگانه تقسیم میشوند و از طریق اسلایدهای گوگل ارائه میشوند:
- فنی: خطاهای خزش، ایندکس شدن، میزبانی و غیره.
- محتوا: تحقیق کلمات کلیدی، تحلیل رقبا، نقشههای محتوا، متادیتا و غیره.
- لینکها: تحلیل پروفایل بکلینکها، تاکتیکهای رشد و غیره.
بعد از اولین ماه، اگر مشتری از کار من راضی باشد، ما شروع به اجرای توصیههای آدیت سئو میکنیم. از این به بعد، هر ماه یک آدیت کوچک و هر سه ماه یک آدیت عمیق انجام میدهم.
بهطور خلاصه، من آدیت سئو را برای مشتریهایم در زمانهای زیر انجام میدهم:
- ماه اول.
- ماهانه (آدیت کوچک).
- سهماهه (آدیت عمیق).
آنچه قبل از شروع سئو آدیت از مشتری نیاز دارید
وقتی من و یک مشتری همکاری را آغاز میکنیم، یک سند گوگل (Google Doc) با آنها به اشتراک میگذارم و از آنها لیستی از رمزهای عبور و ارائهدهندگان مختلف را درخواست میکنم.
این لیست شامل موارد زیر است:
- دسترسی به گوگل آنالیتیکس و هر ابزار تحلیلی ثالث دیگر
- تبلیغات گوگل و بینگ
- ابزارهای وبمستر (گوگل سرچ کنسول و بینگ)
- دسترسی به بخش مدیریت وبسایت
- حسابهای رسانههای اجتماعی
- لیست ارائهدهندگان
- لیست اعضای تیم داخلی (شامل هر کاری که به بیرون سپرده شده)
ابزارهای لازم برای سئو آدیت
قبل از شروع سئو آدیت، در اینجا خلاصهای از ابزارهایی که استفاده میکنم آورده شده است:
- Screaming Frog
- Integrity (برای کاربران مک) و Xenu Sleuth (برای کاربران ویندوز)
- SEO Browser
- Wayback Machine
- Moz
- BuzzSumo
- DeepCrawl
- Copyscape
- Google Tag Manager
- Google Tag Manager Chrome Extension
- Annie Cushing’s Campaign Tagging Guide
- Google Analytics (اگر دسترسی داده شود)
- Google Search Console (اگر دسترسی داده شود)
- Bing Webmaster Tools (اگر دسترسی داده شود)
- You Get Signal
- Pingdom
- PageSpeed Tool
- Sublime Text
انجام یک سئو آدیت فنی
ابزارهای مورد نیاز برای سئو آدیت فنی:
- Screaming Frog
- DeepCrawl
- Copyscape
- Integrity (برای کاربران مک) یا Xenu Sleuth (برای کاربران ویندوز)
- Google Analytics (در صورت دسترسی)
- Google Search Console (در صورت دسترسی)
- Bing Webmaster Tools (در صورت دسترسی)
مرحله 1: افزودن سایت به DeepCrawl و Screaming Frog
ابزارها:
- DeepCrawl
- Copyscape
- Screaming Frog
- Google Analytics
- Integrity
- Google Tag Manager
- کد Google Analytics
به چه نکاتی باید هنگام استفاده از DeepCrawl توجه کنید
اولین کاری که انجام میدهم این است که سایت مشتری را به DeepCrawl اضافه میکنم. بسته به اندازه سایت مشتری، ممکن است خزیدن سایت و دریافت نتایج یکی دو روز طول بکشد.
وقتی نتایج DeepCrawl را دریافت کردید، به این موارد توجه کنید:
- خطاهای خزش: به خطاهایی که مانع از خزش صحیح سایت توسط رباتها میشود توجه کنید.
- وضعیت ایندکس شدن: بررسی کنید که چه صفحاتی ایندکس شدهاند و چه صفحاتی ایندکس نشدهاند.
- لینکهای شکسته: هر لینک شکستهای که باعث از دست رفتن ترافیک میشود را پیدا کنید.
- تگهای متا و عناوین تکراری یا نادرست: صفحات با تگهای متا یا عنوان تکراری یا غیردقیق را شناسایی کنید.
- سرعت سایت: بررسی کنید که آیا مشکلاتی در سرعت بارگذاری وجود دارد که باید برطرف شود.
این اولین بخش از سئو آدیت فنی شماست. این بررسیها پایهای برای بهبود عملکرد سایت از نظر فنی فراهم میکند و به گوگل و سایر موتورهای جستجو کمک میکند سایت شما را بهتر درک کنند.
محتوای تکراری
برای شناسایی محتوای تکراری، به گزارش “Duplicate Pages” مراجعه کنید.
اگر محتوای تکراری شناسایی شد، این موضوع را به عنوان اولویت اصلی در توصیههای خود به مشتری مطرح میکنم تا این صفحات بازنویسی شوند و در این بین، تگ <meta name="robots" content="noindex, nofollow">
را به صفحات تکراری اضافه میکنم.
خطاهای رایج محتوای تکراری که ممکن است کشف کنید:
- تگهای متای تکراری و توضیحات متا
- محتوای بدنه تکراری از صفحات برچسب (از Copyscape برای تعیین سرقت ادبی استفاده میکنم)
- دو دامنه (مثلاً yourwebsite.co و yourwebsite.com)
- زیر دامنهها (مثلاً jobs.yourwebsite.com)
- محتوای مشابه در دامنههای مختلف
- صفحات پیمایش نادرست پیادهسازی شده
نحوه اصلاح:
- افزودن تگ canonical به صفحات خود تا به گوگل بگویید کدام URL را ترجیح میدهید.
- عدم اجازه به URLهای نادرست در robots.txt.
- بازنویسی محتوا (شامل متن بدنه و متادیتا).
مثالی از مشکل محتوای تکراری
یک مثال از مشکل محتوای تکراری که با یکی از مشتریانم داشتم به این صورت بود که آنها پارامترهای URL بدون تگ canonical داشتند.
اقداماتی که برای رفع مشکل انجام دادم:
- رفع هرگونه مشکل 301 redirect.
- افزودن یک تگ canonical به صفحهای که میخواهم گوگل آن را خزیده و ایندکس کند.
- بهروزرسانی تنظیمات پارامتر Google Search Console برای استثنا کردن هر پارامتری که محتوای منحصر به فردی ایجاد نمیکند.
- افزودن تابع disallow به robots.txt برای URLهای نادرست به منظور بهبود بودجه خزشی.
این مراحل به بهینهسازی سایت کمک میکند و از مشکلات محتوای تکراری جلوگیری میکند که میتواند تأثیر منفی بر رتبهبندی در نتایج جستجو داشته باشد.
بررسی Screaming Frog
پس از دریافت سایت یک مشتری جدید، دومین کاری که انجام میدهم این است که URL آنها را به Screaming Frog اضافه میکنم.
بسته به اندازه سایت مشتری، ممکن است تنظیمات را طوری پیکربندی کنم که بخشهای خاصی از سایت را بهطور جداگانه خزیده و بررسی کند.
در تنظیمات spider میتوانید نواحی خاصی از سایت را برای خزش انتخاب کرده یا برخی از قسمتهای سایت را از خزش مستثنی کنید.
مواردی که پس از دریافت نتایج Screaming Frog باید بررسی کنید:
1. کد Google Analytics
Screaming Frog میتواند به شما کمک کند صفحاتی را که فاقد کد Google Analytics (مثلاً UA-1234568-9) هستند شناسایی کنید. برای پیدا کردن صفحات فاقد کد Google Analytics، این مراحل را دنبال کنید:
- به Configuration در نوار ناوبری بروید و سپس Custom را انتخاب کنید.
- در فیلتر 1، عبارت
analytics\.js
را اضافه کنید و در منوی کشویی گزینه Does not contain را انتخاب کنید.
نحوه اصلاح:
- با توسعهدهندگان مشتری تماس بگیرید و از آنها بخواهید کد Google Analytics را به صفحاتی که این کد را ندارند اضافه کنند.
برای اطلاعات بیشتر در مورد Google Analytics، میتوانید به بخش مربوط به آن در ادامه مراجعه کنید.
2.Google Tag Manager (مدیریت تگ گوگل)
Screaming Frog میتواند به شما کمک کند تا صفحاتی را که فاقد اسنیپت Google Tag Manager هستند شناسایی کنید. مراحل زیر را دنبال کنید:
- به تب Configuration در نوار ناوبری بروید، سپس Custom را انتخاب کنید.
- در فیلتر، عبارت
<iframe src="//www.googletagmanager.com/
را اضافه کرده و گزینه Does not contain را انتخاب کنید.
نحوه رفع مشکل:
- به Google Tag Manager بروید تا بررسی کنید آیا خطایی وجود دارد و در صورت لزوم، آن را بهروزرسانی کنید.
- کد مورد نظر را با توسعهدهندگان مشتری به اشتراک بگذارید تا آن را به سایت اضافه کنند.
3.Schema (دادههای ساختاریافته)
باید بررسی کنید که آیا سایت مشتری شما از Schema markup یا دادههای ساختاریافته استفاده میکند. Schema به موتورهای جستجو کمک میکند تا محتوای یک صفحه را بهتر درک کنند.
برای بررسی استفاده از Schema markup در Screaming Frog:
- به تب Configuration بروید و سپس Custom را انتخاب کنید.
- عبارت
itemtype="http://schema.org/
را به فیلتر اضافه کنید و گزینه Contain را انتخاب کنید.
نحوه رفع مشکل:
- اگر Schema روی سایت وجود ندارد، پیشنهاد کنید که دادههای ساختاریافته مرتبط مانند Schema برای محصولات، مقالات یا کسبوکارهای محلی به سایت اضافه شود.
4.ایندکسگذاری (Indexing)
برای تعیین تعداد صفحاتی که برای مشتری شما ایندکس شدهاند، از Screaming Frog استفاده کنید:
- پس از اینکه سایت بهطور کامل در Screaming Frog بارگذاری شد، به Directives بروید.
- فیلتر Index را اعمال کنید تا بررسی کنید آیا بخشهایی از کد ایندکس مشکل دارد یا خیر.
نحوه رفع مشکل:
- اگر سایت جدید است، ممکن است گوگل هنوز آن را ایندکس نکرده باشد.
- فایل robots.txt را بررسی کنید تا مطمئن شوید هیچ صفحهای که میخواهید توسط گوگل خزیده و ایندکس شود، مسدود نشده است.
- مطمئن شوید که نقشه سایت مشتری را به Google Search Console و Bing Webmaster Tools ارسال کردهاید.
- اگر همچنان مشکل وجود دارد، تحقیق دستی انجام دهید تا به مشکلات احتمالی ایندکسگذاری پی ببرید.
5.Flash (فلش)
در سال 2016، گوگل اعلام کرد که Chrome به دلیل سرعت پایین بارگذاری صفحات، شروع به مسدود کردن Flash میکند. بنابراین، اگر در حال انجام یک SEO Audit هستید، باید بررسی کنید که آیا مشتری جدید شما از Flash استفاده میکند یا خیر.
برای این کار در Screaming Frog:
- به Spider Configuration در نوار ناوبری بروید.
- روی Check SWF کلیک کنید.
- پس از اتمام خزش، تب Internal را بر اساس Flash فیلتر کنید.
نحوه رفع مشکل:
- ویدیوها را از یوتیوب جاسازی کنید. گوگل یوتیوب را در سال 2006 خرید، بنابراین بهترین انتخاب این است.
- یا از استانداردهای HTML5 برای اضافه کردن ویدیوها استفاده کنید.
مثالی از کد HTML5 برای افزودن یک ویدیو:
6.JavaScript
طبق اعلام گوگل در سال 2015، استفاده از JavaScript در وبسایتها مشکلی ندارد، به شرط اینکه چیزی در فایل robots.txt مسدود نشده باشد (در ادامه بیشتر بررسی خواهیم کرد). با این حال، باید نحوه ارائه جاوا اسکریپت در سایت را بررسی کنید.
نحوه رفع مشکل:
- جاوا اسکریپت را بررسی کنید تا مطمئن شوید که در robots.txt مسدود نشده است.
- اطمینان حاصل کنید که جاوا اسکریپت روی سرور اجرا میشود (این کار به تولید دادههای ساده به جای دادههای پویا کمک میکند).
- اگر از Angular JavaScript استفاده میکنید، مقاله بن اورن را درباره تأثیرات آن بر SEO بخوانید.
در Screaming Frog:
- به Spider Configuration در نوار ناوبری بروید و روی Check JavaScript کلیک کنید.
- پس از اتمام خزش، نتایج را در تب Internal بر اساس JavaScript فیلتر کنید.
7. Robots.txt
هنگام بررسی فایل robots.txt، باید ببینید آیا چیزی مهم مسدود یا غیرفعال شده است.
به عنوان مثال:
اگر این کد را ببینید:
سایت مشتری شما از دسترسی تمام خزندههای وب مسدود شده است.
اما اگر فایل robots.txt مثل زیر باشد، مشکلی نیست:
در این حالت، فقط صفحاتی که برای خزندههای وب کاربردی نیستند، مسدود شدهاند.
نحوه رفع مشکل:
- فایل robots.txt حساس به حروف بزرگ و کوچک است؛ پس همه حروف را کوچک کنید.
- هر صفحهای که Disallow شده و میخواهید توسط موتورهای جستجو کراول شود را حذف کنید.
- به طور پیشفرض، Screaming Frog نمیتواند هیچ آدرسی که در robots.txt مسدود شده باشد را بارگذاری کند. اگر تنظیمات پیشفرض را تغییر دهید، Screaming Frog فایل robots.txt را نادیده میگیرد.
- همچنین میتوانید صفحات مسدود شده را در تب Response Codes و سپس فیلتر Blocked by Robots.txt مشاهده کنید.
- اگر سایت شما چندین زیر دامنه دارد، باید برای هر کدام یک robots.txt جداگانه داشته باشید.
- مطمئن شوید که نقشه سایت در فایل robots.txt فهرست شده است.
8. خطاهای Crawl
برای پیدا کردن و بررسی خطاهای خزش در سایت مشتریهایم، از ابزارهایی مثل DeepCrawl، Screaming Frog و ابزارهای وبمستر گوگل و بینگ استفاده میکنم.
مراحل پیدا کردن خطاهای خزش در Screaming Frog:
- پس از تکمیل خزش، به Bulk Reports بروید.
- به پایین بروید تا به Response Codes برسید و سپس گزارش خطاهای سرور و گزارش خطاهای کلاینت را صادر کنید.
نحوه رفع مشکلات:
- گزارش خطاهای کلاینت: بیشتر خطاهای 404 را میتوانید خودتان با 301 ریدایرکت کردن در بخش بکاند سایت رفع کنید.
- گزارش خطاهای سرور: برای رفع این خطاها باید با تیم توسعه همکاری کنید تا علت را پیدا کنید. قبل از برطرف کردن این خطاها در پوشه اصلی سایت، مطمئن شوید که از سایت بکاپ گرفتهاید. ممکن است فقط نیاز باشد یک فایل دسترسی .html جدید ایجاد کنید یا محدودیت حافظه PHP را افزایش دهید.
- همچنین باید این ریدایرکتهای دائمی را از نقشه سایت و هرگونه لینک داخلی یا خارجی حذف کنید.
- از کد 404 در URL برای پیگیری بهتر در Google Analytics استفاده کنید.
9. زنجیرههای ریدایرکت
زنجیرههای ریدایرکت نه تنها تجربه کاربری ضعیفی را ایجاد میکنند، بلکه سرعت بارگذاری صفحات را کاهش داده و نرخ تبدیل را پایین میآورند. علاوه بر این، هرگونه اعتبار لینکهایی که پیشتر داشتهاید از دست میرود.
رفع زنجیرههای ریدایرکت میتواند به سرعت نتیجه خوبی برای هر شرکتی به همراه داشته باشد.
نحوه رفع مشکل:
- پس از تکمیل خزش در Screaming Frog، به Reports > Redirect Chains بروید تا مسیر ریدایرکتهای سایت را مشاهده کنید.
- سپس در یک فایل اکسل، میتوانید بررسی کنید که آیا ریدایرکتهای 301 شما همچنان به صورت 301 باقی ماندهاند یا خیر.
- اگر خطای 404 مشاهده کردید، لازم است که آن را سریعاً برطرف کنید.
10. لینکهای داخلی و خارجی
وقتی یک کاربر روی لینکی به سایت شما کلیک میکند و با خطای 404 مواجه میشود، این تجربه کاربری خوبی نیست. همچنین، این موضوع به بهبود رتبه شما در موتورهای جستجو نیز کمکی نمیکند.
برای پیدا کردن لینکهای داخلی و خارجی خراب، از Integrity در مک استفاده میکنم. اگر کاربر PC هستید، میتوانید از Xenu Sleuth استفاده کنید. همچنین، در ادامه به شما نشان میدهم که چگونه این لینکها را در Screaming Frog و DeepCrawl پیدا کنید.
نحوه رفع مشکل:
- اگر از Integrity یا Xenu Sleuth استفاده میکنید:
- آدرس سایت مشتری خود را وارد کنید و لیستی کامل از URLهای خراب دریافت کنید.
- میتوانید به صورت دستی این لینکها را بهروزرسانی کنید یا اگر با تیم توسعه همکاری میکنید، از آنها کمک بخواهید.
- اگر از Screaming Frog استفاده میکنید:
- اگر از DeepCrawl استفاده میکنید:
- به زبانه Unique Broken Links در بخش Internal Links بروید.
11. URLها
هر بار که مشتری جدیدی را میپذیرید، باید فرمت URLهای او را بررسی کنید. به دنبال چه چیزی در URLها هستم؟
- پارامترها: اگر URL دارای کاراکترهای عجیبی مانند
؟
،=
یا+
باشد، این URL یک URL دینامیک است که در صورت بهینهسازی نشدن میتواند باعث محتوای تکراری شود. - کاربرپسند: دوست دارم URLها کوتاه و ساده باشند و همچنین هرگونه اسلش اضافی را حذف کنم.
نحوه رفع مشکل:
- میتوانید برای جستجوی URLهای دارای پارامتر در گوگل از عبارت زیر استفاده کنید:
کپی کد
یا هر چیزی که فکر میکنید شامل پارامتر باشد.
- پس از اجرای خزش در Screaming Frog، به URLها نگاه کنید. اگر پارامترهایی را مشاهده کردید که باعث تکرار محتوای شما میشوند، باید موارد زیر را پیشنهاد دهید:
- اضافه کردن تگ کنونیکال: تگ کنونیکال را به صفحه URL اصلی اضافه کنید. به عنوان مثال، اگر www.buyaunicorn.com/magical-headbands صفحه اصلی است و میبینید که www.buyaunicorn.com/magical-headbands/?dir=mode123$ وجود دارد، تگ کنونیکال باید به www.buyaunicorn.com/magical-headbands اضافه شود.
- بهروزرسانی پارامترها در Google Search Console: این کار را در مسیر Crawl > URL Parameters انجام دهید.
- ممنوع کردن URLهای تکراری در robots.txt: این کار به جلوگیری از خزیدن موتورهای جستجو به این URLها کمک میکند.
مرحله ۲: بررسی Google Search Console و Bing Webmaster Tools
ابزارها:
- Google Search Console
- Bing Webmaster Tools
- Sublime Text (یا هر ویرایشگر متنی دیگر)
تعیین دامنه ترجیحی
از زمان بهروزرسانی Panda، روشن کردن دامنه ترجیحی برای موتورهای جستجو سودمند است. این کار همچنین کمک میکند تا اطمینان حاصل شود که تمام لینکها به یک سایت توجه بیشتری میکنند و به جای اینکه بین دو سایت پخش شوند، متمرکز شوند.
نحوه رفع مشکل:
- در Google Search Console، روی آیکون چرخ دنده در گوشه بالا سمت راست کلیک کنید.
- URL مورد نظر را به عنوان دامنه ترجیحی انتخاب کنید.
(لینک تصویر فقط به عنوان مثال است)
- نیازی به تعیین دامنه ترجیحی در Bing Webmaster Tools نیست؛ فقط کافی است نقشه سایت خود را ارسال کنید تا به بینگ کمک کند دامنه ترجیحی شما را تعیین کند.
بکلینکها
با اعلام اینکه بهروزرسانی Penguin به صورت زمان واقعی اعمال میشود، این موضوع بسیار حیاتی است که بکلینکهای مشتری شما با استانداردهای گوگل مطابقت داشته باشند.
اگر متوجه شدید که بخش بزرگی از بکلینکها به سایت مشتری شما از یک صفحه خاص در یک وبسایت میآید، باید اقدامهای لازم را برای پاکسازی آن انجام دهید و سریعاً این کار را انجام دهید!
نحوه رفع مشکل:
- در Google Search Console به بخش Links بروید و سپس Top linking sites را مرتب کنید.
(لینک تصویر فقط به عنوان مثال است)
- با شرکتهایی که از یک صفحه به شما لینک دادهاند تماس بگیرید و از آنها بخواهید که لینکها را حذف کنند.
- یا این لینکها را به لیست disavow خود اضافه کنید. هنگام افزودن شرکتها به لیست disavow خود، بسیار مراقب باشید که چگونه و چرا این کار را انجام میدهید. شما نمیخواهید لینکهای با ارزش را حذف کنید.
مثال فایل disavow من:
کلیدواژهها
به عنوان یک مشاور سئو، وظیفه من این است که بازار و چشمانداز مشتریام را بشناسم. من باید بدانم که مخاطب هدف آنها چه کسانی هستند، چه چیزی را جستجو میکنند و چگونه به جستجو میپردازند. برای شروع، نگاهی به کلمات کلیدی که در حال حاضر ترافیک را برای مشتری من ایجاد میکنند، میاندازم.
در Google Search Console، زیر Search Traffic > Search Analytics میتوانید ببینید که کدام کلیدواژهها در حال حاضر کلیکهایی برای مشتری شما ارسال میکنند.
(لینک تصویر فقط به عنوان مثال است)
نقشه سایت
نقشههای سایت برای کمک به موتورهای جستجو در خزیدن در وبسایت مشتری شما بسیار ضروری هستند. نقشههای سایت با زبان موتورهای جستجو صحبت میکنند. هنگام ایجاد نقشههای سایت، چند نکته وجود دارد که باید بدانید:
- آدرسهای URL حاوی پارامتر را در نقشه سایت خود شامل نکنید.
- هیچ صفحهای که قابل نمایهگذاری نیست را شامل نکنید.
- اگر سایت دارای زیر دامنههای مختلف برای موبایل و دسکتاپ است، حتماً تگ rel=”alternate” را به نقشه سایت اضافه کنید.
نحوه رفع مشکل:
- به Google Search Console بروید > Index > Sitemaps تا URLهای نمایهگذاری شده در نقشه سایت را با URLهای موجود در وبسایت مقایسه کنید.
- سپس یک جستجوی دستی انجام دهید تا مشخص کنید کدام صفحات نمایهگذاری نمیشوند و چرا.
- اگر URLهای قدیمی که به آدرسهای جدید منتقل شدهاند را در نقشه سایت مشتریتان پیدا کردید، آنها را حذف کنید. این Redirectهای قدیمی در صورت عدم حذف میتوانند تأثیر منفی بر سئوی شما داشته باشند.
- اگر مشتری جدیدی دارید، یک نقشه سایت جدید برای آنها در هر دو Bing Webmaster Tools و Google Search Console ارسال کنید.
خزیدن (Crawl)
خطاهای خزیدن (Crawl Errors) اهمیت زیادی دارند زیرا نه تنها تجربه کاربری را تحت تأثیر قرار میدهند، بلکه میتوانند بر رتبهبندی وبسایت شما نیز تأثیر منفی بگذارند. جان مولر (John Mueller) اشاره کرده است که نرخ خزیدن پایین میتواند نشانهای از کیفیت پایین یک وبسایت باشد.
برای بررسی این مورد در Google Search Console، به مسیر Coverage > Details بروید.
برای بررسی این مورد در Bing Webmaster Tools، به مسیر Reports & Data > Crawl Information بروید.
نحوه رفع مشکل:
- بررسی دستی: خطاهای خزیدن را بهصورت دستی بررسی کنید تا تعیین کنید آیا این خطاها ناشی از محصولات قدیمی هستند که دیگر وجود ندارند یا اینکه خطاهایی وجود دارد که باید در فایل robots.txt مسدود شوند.
- اجرای Redirect 301: پس از شناسایی منابع خطاها، میتوانید Redirect 301 را به صفحات مشابهی که به صفحات مرده لینک میدهند، اعمال کنید.
- بررسی آمار خزیدن: همچنین باید آمار خزیدن را در Google Search Console با زمان بارگذاری متوسط در Google Analytics مقایسه کنید تا ببینید آیا بین زمان صرف شده برای دانلود و تعداد صفحاتی که در روز خزیده شدهاند، همبستگی وجود دارد.
دادههای ساختاری (Structured Data)
همانطور که در بخش Schema در Screaming Frog اشاره شد، شما میتوانید نشانهگذاری ساختاری (Schema Markup) وبسایت مشتری خود را در Google Search Console بررسی کنید.
از گزارش وضعیت نتایج غنی فردی (Individual Rich Results Status Report) در Google Search Console استفاده کنید. (توجه: گزارش دادههای ساختاری دیگر در دسترس نیست.) این گزارش به شما کمک میکند تا مشخص کنید کدام صفحات دارای خطاهای دادههای ساختاری هستند که باید در آینده برطرف شوند.
نحوه رفع مشکل:
- بررسی خطاها: Google Search Console به شما خواهد گفت که چه چیزی در نشانهگذاری ساختاری شما از دست رفته است، وقتی که نسخه زنده را آزمایش میکنید.
- اصلاح نشانهگذاری: بر اساس کدهای خطای دریافتی، نشانهگذاری را در یک ویرایشگر متنی (مثل Sublime Text) دوباره بنویسید و آن را به تیم توسعه وب ارسال کنید تا بهروزرسانی انجام دهند. کاربران Mac میتوانند از ویرایشگر متن داخلی استفاده کنند و کاربران PC میتوانند از گزینههای مختلف موجود بهره ببرند.
این مراحل به شما کمک میکند تا نشانهگذاری ساختاری را بهینه کنید و از نمایهسازی بهتر صفحات وبسایت مشتری خود اطمینان حاصل کنید.
مرحله ۳: بررسی Google Analytics
ابزارها:
- Google Analytics
- Google Tag Manager Assistant Chrome Extension
- راهنمای برچسبگذاری کمپین آنی کاشینگ (Annie Cushing Campaign Tagging Guide)
نمایهها (Views)
زمانی که مشتری جدیدی میگیرم، سه نمایه مختلف در Google Analytics تنظیم میکنم:
- نمایه گزارشدهی (Reporting View)
- نمایه اصلی (Master View)
- نمایه تست (Test View)
این نمایههای مختلف به من این امکان را میدهند که تغییراتی ایجاد کنم بدون اینکه بر روی دادهها تأثیر بگذارم.
نحوه رفع مشکل:
- ایجاد نمایهها: در Google Analytics به مسیر Admin > View > View Settings بروید و سه نمایه مذکور را ایجاد کنید.
- فیلتر کردن رباتها: اطمینان حاصل کنید که بخش Bot Filtering را بررسی کنید تا همهی تأثیرات ناشی از رباتها و عنکبوتها حذف شوند.
- اتصال به Google Ads و Google Search Console: همچنین مطمئن شوید که حسابهای Google Ads و Google Search Console به یکدیگر متصل شدهاند.
- فعالسازی ردیابی جستجوی سایت: در نهایت، اطمینان حاصل کنید که Site Search Tracking فعال است.
این اقدامات به شما کمک میکند تا از صحت دادههای تحلیلی خود اطمینان حاصل کنید و به درک بهتری از عملکرد وبسایت مشتری بپردازید.
فیلترها
برای اطمینان از اینکه ترافیک نادرست را در Google Analytics دریافت نمیکنید، باید آدرس IP خود و آدرس IP مشتریتان را به فیلترها اضافه کنید.
نحوه رفع مشکل:
- به مسیر Admin > View > Filters بروید.
- تنظیمات باید به صورت Exclude > traffic from the IP addresses > that are equal to تنظیم شود.
کد ردیابی
شما میتوانید به صورت دستی کد منبع را بررسی کنید یا از تکنیکهای Screaming Frog که قبلاً توضیح دادهام، استفاده کنید.
اگر کد در سایت وجود دارد، باید اطمینان حاصل کنید که در زمان واقعی فعال است.
نحوه بررسی:
- به وبسایت مشتریتان بروید و کمی در سایت کلیک کنید.
- سپس به Google Analytics > Real-Time > Locations بروید و ببینید که موقعیت شما باید بهروز شود.
اگر از Google Tag Manager استفاده میکنید، میتوانید این موضوع را با استفاده از Google Tag Assistant Chrome extension نیز بررسی کنید.
نحوه رفع مشکل:
- اگر کد فعال نیست، باید کد اسنپت را بررسی کنید تا مطمئن شوید که صحیح است. اگر چندین سایت را مدیریت میکنید، ممکن است کد سایت دیگری را اضافه کرده باشید.
- قبل از کپی کردن کد، از ویرایشگر متن (text editor) استفاده کنید، نه از پردازشگر متن (word processor)، زیرا این کار میتواند باعث اضافه شدن کاراکترهای اضافی یا فضای خالی شود.
- توجه داشته باشید که توابع به حروف بزرگ و کوچک حساس هستند، بنابراین بررسی کنید که همه چیز در کد به صورت حروف کوچک نوشته شده باشد.
ایندکسگذاری
اگر فرصتی برای کار کردن با Google Search Console داشتهاید، احتمالاً متوجه بخش Coverage شدهاید.
زمانی که من در حال ارزیابی یک مشتری هستم، ایندکسگذاری آنها را در Google Search Console با Google Analytics مقایسه میکنم. مراحل انجام این کار به شرح زیر است:
- در Google Search Console، به بخش Coverage بروید.
- در Google Analytics، به مسیر Acquisition > Channels > Organic Search > Landing Page بروید.
- پس از رسیدن به اینجا، به Advanced > Site Usage > Sessions > 9 بروید.
نحوه رفع مشکل:
- اعداد را از Google Search Console با اعداد Google Analytics مقایسه کنید. اگر اعداد بهطور چشمگیری متفاوت باشند، این بدان معناست که هرچند صفحات ایندکس شدهاند، فقط بخشی از آنها ترافیک ارگانیک دریافت میکنند.
این مقایسه به شما کمک میکند تا بفهمید آیا صفحات ایندکس شده واقعاً ترافیک قابل توجهی را جذب میکنند یا خیر، و در صورت نیاز، میتوانید استراتژیهای بهینهسازی مناسب را پیادهسازی کنید.
برچسبگذاری کمپین
آخرین موردی که باید در Google Analytics بررسی کنید، این است که آیا مشتری شما برچسبگذاری کمپین را به درستی انجام میدهد یا خیر. شما نمیخواهید به خاطر فراموش کردن برچسبگذاری کمپین، اعتبار کار خود را از دست بدهید.
نحوه رفع مشکل:
- استراتژی برچسبگذاری کمپین را برای Google Analytics تنظیم کنید و آن را با مشتری خود به اشتراک بگذارید. Annie Cushing یک راهنمای عالی برای برچسبگذاری کمپین تهیه کرده است.
- اگر مشتری شما از تبلیغات موبایلی یا ویدئویی استفاده میکند، ردیابی رویدادها را راهاندازی کنید.
کلمات کلیدی
شما میتوانید از Google Analytics برای کسب اطلاعات در مورد کلمات کلیدی پتانسیل برای مشتری خود استفاده کنید. برای پیدا کردن کلمات کلیدی در Google Analytics مراحل زیر را دنبال کنید:
- به Google Analytics بروید و مسیر زیر را دنبال کنید: Behavior > Site Search > Search Terms. این بخش نمایی از آنچه مشتریان در وبسایت جستجو میکنند، به شما میدهد.
- سپس، از آن اصطلاحات جستجو برای ایجاد یک Segment جدید در Google Analytics استفاده کنید تا ببینید چه صفحاتی در وبسایت برای آن کلمه کلیدی خاص رتبهبندی شدهاند.
مرحله ۴: بررسی دستی
ابزارها:
- Google Analytics
- دسترسی به سرور و هاست مشتری
- You Get Signal
- Pingdom
- PageSpeed Tools
- Wayback Machine
یک نسخه از وبسایت مشتری شما قابل جستجو است
تمام روشهای مختلفی که میتوانید برای جستجوی یک وبسایت استفاده کنید را بررسی کنید. به عنوان مثال:
http://annaisaunicorn.com
https://annaisaunicorn.com
http://www.annaisaunicorn.com
به قول Highlander، “فقط یک وبسایت قابل جستجو وجود دارد.”
نحوه رفع مشکل:
از یک Redirect 301 برای تمام URLهایی که به غیر از سایت اصلی هستند به سایت کاننیکال استفاده کنید.
ایندکسگذاری
یک جستجوی دستی در Google و Bing انجام دهید تا تعیین کنید چند صفحه توسط Google ایندکس شده است. این عدد همیشه با دادههای Google Analytics و Google Search Console دقیق نیست، اما باید تخمینی rough به شما بدهد.
برای بررسی، مراحل زیر را انجام دهید:
- یک جستجوی سایت در موتورهای جستجو انجام دهید:
site:annaisaunicorn.com
- هنگام جستجو، به طور دستی اسکن کنید تا مطمئن شوید که فقط برند مشتری شما ظاهر میشود.
- بررسی کنید که آیا صفحه اصلی در صفحه اول نتایج قرار دارد یا خیر. John Mueller گفته است که ضروری نیست که صفحه اصلی به عنوان اولین نتیجه ظاهر شود.
نحوه رفع مشکل:
- اگر برند دیگری در نتایج جستجو ظاهر میشود، شما با یک مشکل بزرگتری مواجه هستید. باید به تحلیل دادهها بپردازید تا مشکل را شناسایی کنید.
- اگر صفحه اصلی به عنوان اولین نتیجه ظاهر نمیشود، بررسی دستی وبسایت را انجام دهید تا ببینید چه چیزی کم دارد. این ممکن است به معنای وجود یک جریمه یا معماری ضعیف سایت باشد که نیاز به یک redesign بزرگ دارد.
- تعداد صفحات فرود ارگانیک در Google Analytics را با تعداد نتایج جستجو که در موتور جستجو مشاهده کردهاید، مقایسه کنید. این میتواند به شما کمک کند تا تعیین کنید کدام صفحات برای موتورهای جستجو ارزشمند هستند.
کش (Caching)
برای بررسی اینکه آیا صفحات برتر مشتری شما توسط Google کش شدهاند یا خیر، میتوانید مراحل زیر را دنبال کنید:
- از این URL استفاده کنید:
http://webcache.googleusercontent.com/search?q=cache:https://www.searchenginejournal.com/pubcon-day-3-women-in-digital-amazon-analytics/176005/
- مطمئن شوید که به نسخه Text-only سوئیچ کردهاید.
- همچنین میتوانید این اطلاعات را در Wayback Machine بررسی کنید.
نحوه رفع مشکل:
- سرور مشتری را بررسی کنید تا ببینید آیا سرور خاموش است یا کندتر از حد معمول کار میکند. ممکن است یک خطای داخلی سرور یا مشکل در اتصال پایگاه داده وجود داشته باشد. این مشکل میتواند به دلیل دسترسی همزمان چندین کاربر به سرور باشد.
- بررسی کنید که چه کسی دیگری روی سرور شماست با استفاده از بررسی IP معکوس. میتوانید از وبسایت You Get Signal برای این مرحله استفاده کنید. اگر دامنههای مشکوکی با سرور مشتری شما مشترک هستند، ممکن است نیاز به ارتقای سرور مشتری یا استفاده از یک CDN داشته باشید.
- بررسی کنید که آیا مشتری صفحات خاصی را از سایت حذف میکند یا خیر.
هاستینگ (Hosting)
اگرچه این بخش ممکن است برای برخی کمی فنی به نظر برسد، اما بررسی نرمافزار هاستینگ مرتبط با وبسایت مشتری شما برای موفقیت SEO ضروری است. هاستینگ میتواند بر SEO تأثیر منفی بگذارد و تمام زحمات شما را بینتیجه کند.
برای بررسی مشکلات، به دسترسی به سرور مشتری نیاز دارید. متداولترین مشکلات هاستینگ که میبینم عبارتند از:
- داشتن TLD نادرست
- سرعت سایت پایین
نحوه رفع مشکل:
- اگر مشتری شما TLD نادرستی دارد، باید اطمینان حاصل کنید که آدرس IP کشوری که بیشترین عملیات را در آن انجام میدهد، مرتبط است. اگر مشتری شما دامنه .co و همچنین دامنه .com دارد، باید دامنه .co را به دامنه اصلی .com مشتریتان ریدایرکت کنید.
- اگر مشتری شما سرعت سایت پایین دارد، باید به سرعت به این موضوع رسیدگی کنید زیرا سرعت سایت یک عامل رتبهبندی است. با استفاده از ابزارهایی مانند PageSpeed Tools و Pingdom بفهمید چه عواملی باعث کندی سایت میشوند. در اینجا برخی از مشکلات متداول سرعت صفحه آورده شده است:
- هاست
- تصاویر بزرگ
- ویدیوهای جاسازی شده
- افزونهها
- تبلیغات
- قالب
- ویدجتها
- اسکریپتهای تکراری یا کد متراکم
بررسی این موارد به بهبود عملکرد و SEO سایت مشتری شما کمک خواهد کرد.
بررسی Core Web Vitals
Core Web Vitals مجموعهای از سه معیار کلیدی است که تجربه کاربری یک وبسایت را نمایندگی میکند. این معیارها به دلیل ادغام آنها در الگوریتمهای رتبهبندی گوگل در بهار 2021 اهمیت زیادی پیدا کردند. اگرچه تأثیر آنها بر رتبهبندی نسبتا کوچک است، اما بررسی این امتیازات به دلیل بهبود عملکرد کلی وبسایت و رضایت کاربران بسیار مهم است.
اهمیت گنجاندن Core Web Vitals در بررسی شما
- رتبهبندی در موتورهای جستجو: هرچند که تأثیر آنها بر رتبهبندی به نسبت کم است، اما بهبود Core Web Vitals میتواند به افزایش دید وبسایت در نتایج جستجو کمک کند.
- تبدیلها و درآمد: تجربه کاربری بهتر معمولاً به افزایش نرخ تبدیل، ترافیک بیشتر و کلیکهای بیشتر بر روی تبلیغات منجر میشود که بهطور مستقیم بر درآمد تأثیر دارد.
- عملکرد و سرعت: بهبود سرعت و عملکرد کلی صفحه به افزایش تعامل کاربران و تجربه مثبت آنها مرتبط است.
- مسائل مربوط به سرور: حتی اگر یک سرور سریع داشته باشید، یک اتصال اینترنتی کند بر روی تلفنهای همراه ارزانقیمت ممکن است مانع تجربه کاربری بهینه شود. بنابراین، سرعت سرور ممکن است به تنهایی به بهبود Core Web Vitals کمک نکند.
- محدودیتهای سیستمهای مدیریت محتوا: بسیاری از سیستمهای مدیریت محتوا (مانند وردپرس یا دروپال) بهطور ابتدایی برای امتیازدهی خوب در Core Web Vitals طراحی نشدهاند. به همین دلیل، بهینهسازی برای این معیارها معمولاً نیازمند تغییرات عمده در کدها است.
- نیاز به تخصص توسعهدهندگان: اکثر راهحلهای مربوط به مسائل Core Web Vitals نیاز به همکاری با توسعهدهندگانی دارد که با تغییرات در فایلهای اصلی CMS آشنا هستند.
هدف از بررسی Core Web Vitals
هدف از انجام بررسی Core Web Vitals شناسایی مشکلات موجود و انتقال این اطلاعات به یک توسعهدهنده است تا او بتواند تغییرات لازم را اعمال کند. به طور خلاصه، بهبود Core Web Vitals به معنای انجام کارهایی است که وبسایت هرگز برای آنها طراحی نشده بود و این فرآیند معمولاً به همکاری نزدیک با توسعهدهندگان نیاز دارد.
Core Web Vitals چیست؟
Core Web Vitals شامل سه معیار است که بهطور کلی نحوه بارگذاری سریعترین قسمتهای مهم صفحه، سرعت تعامل کاربر با صفحه (مانند کلیک بر روی یک دکمه) و سرعت تثبیت صفحه وب بدون جابهجایی عناصر آن را شناسایی میکند.
این معیارها عبارتند از:
- Largest Contentful Paint (LCP): زمان بارگذاری بزرگترین عنصر محتوایی که کاربر در صفحه میبیند.
- First Input Delay (FID): زمانی که طول میکشد تا صفحه به اولین ورودی کاربر پاسخ دهد.
- Cumulative Layout Shift (CLS): میزان جابهجایی عناصر صفحه در حین بارگذاری.
دو نوع امتیاز برای Core Web Vitals وجود دارد:
- دادههای آزمایشگاهی (Lab Data):
دادههای آزمایشگاهی زمانی تولید میشوند که صفحهای را از طریق Google Lighthouse یا PageSpeed Insights بررسی میکنید.
این دادهها شامل امتیازاتی هستند که با استفاده از دستگاه و اتصال اینترنت شبیهسازی شده تولید میشوند. هدف این است که به شخصی که روی سایت کار میکند، ایدهای درباره قسمتهایی از Core Web Vitals که نیاز به بهبود دارند، بدهد.
ارزش ابزاری مانند PageSpeed Insights این است که کدها و عناصر صفحه خاصی را که باعث امتیاز پایین صفحه میشوند شناسایی میکند. - دادههای واقعی (Field Data):
دادههای واقعی، امتیازهای واقعی Core Web Vitals هستند که توسط مرورگر Google Chrome برای گزارش تجربه کاربری Chrome (که بهعنوان CrUX نیز شناخته میشود) جمعآوری شدهاند.
دادههای واقعی در Google Search Console زیر برگه “Enhancements” در لینک مشخص شده با عنوان Core Web Vitals قابل دسترسی هستند (لینک).
دادههای واقعی گزارششده در Google Search Console از صفحاتی که حداقل میزان بازدید و اندازهگیری را داشتهاند، جمعآوری میشوند. اگر گوگل امتیازات کافی دریافت نکند، Google Search Console آن امتیاز را گزارش نخواهد کرد.
استفاده از Screaming Frog برای ارزیابی Core Web Vitals
نسخه 14.2 از Screaming Frog اکنون قابلیت نمایش ارزیابی Core Web Vitals بهصورت «قبول» یا «رد» را دارد. برای استفاده از این قابلیت، شما نیاز دارید که Screaming Frog را به API PageSpeed Insights متصل کنید (میتوانید API Key خود را از اینجا دریافت کنید).
مراحل ثبتنام API Key در Screaming Frog:
- به Configuration بروید.
- به API Access و سپس PageSpeed Insights بروید.
- در آنجا، مکانی برای وارد کردن API Key خود خواهید دید و میتوانید آن را به سرویس متصل کنید.
در همان پنجره PageSpeed Insights، میتوانید به تب Metrics بروید و جعبههای مربوط به معیارهایی که میخواهید گزارش شوند را انتخاب کنید. حتماً دستگاه Mobile را انتخاب کنید زیرا این معیار برای مقاصد رتبهبندی اهمیت دارد.
اگر به تب Opportunities بروید، پس از اتمام خزیدن، Screaming Frog فهرستی از انواع بهبودها (مانند تعویق بارگذاری تصاویر غیرضروری، حذف CSS های غیرضروری و غیره) را به شما نمایش میدهد.
نکته قبل از خزیدن
بهطور کلی، نیازی به خزیدن در کل سایت و تولید گزارشی دقیق از مشکلات هر صفحه نیست.
قبل از خزیدن، ممکن است بخواهید یک مجموعه نماینده از صفحات را خزیده و بررسی کنید. برای این کار، ابتدا یک گروه از صفحات که نمایانگر نوع صفحات رایج در هر بخش یا دسته از وبسایت هستند، انتخاب کنید. میتوانید یک صفحه گسترده، فایل متنی، یا URLها را بهصورت دستی در تب Upload در Screaming Frog بچسبانید.
بیشتر سایتها شامل صفحاتی هستند که با ساختار و محتوای مشابه ایجاد شدهاند. بهعنوان مثال، تمام صفحات در یک دسته «اخبار» نسبتاً مشابه هستند و صفحات در یک دسته «بررسی» نیز به یکدیگر شباهت خواهند داشت.
شما میتوانید با خزیدن یک گروه نماینده از صفحات، در شناسایی مشکلات رایج در هر دسته و همچنین مشکلات عمومی در تمام صفحات سایت که نیاز به رفع دارند، صرفهجویی کنید.
بهخاطر این شباهتها، مشکلات کشفشده معمولاً مشابه خواهند بود. ممکن است فقط لازم باشد یک گروه کوچک از صفحات نماینده از هر نوع دسته را خزیده و مشکلات خاص هر یک از آن بخشها را شناسایی کنید.
مشکلاتی که معمولاً نیاز به اصلاح دارند، مشکلات کلی سایت هستند که در کل سایت شایعاند، مانند CSS غیرضروری که از هر صفحه بارگذاری میشود یا جابهجایی کلی در طراحی (Cumulative Layout Shift) ناشی از واحدهای تبلیغاتی که در قسمت چپ صفحات وب قرار دارند.
با توجه به اینکه وبسایتهای مدرن معمولاً بهصورت الگو طراحی میشوند، اصلاحات در سطح الگو یا با کدنویسی سفارشی در فایل CSS و غیره انجام خواهد شد.
خزیدن در سایت با Screaming Frog
پس از خزیدن کامل URLها، میتوانید به تب PageSpeed بروید و تمام توصیهها را مشاهده کرده و نمرات قبول/رد برای معیارهای مختلف را بررسی کنید.
تمرکز بر فرصتهای URL
یکی از ویژگیهای مفید در ارزیابی Core Web Vitals در Screaming Frog، توانایی انتخاب یک URL از لیست URLها در بالای صفحه است و سپس مشاهده فرصتهای بهبود در پایین صفحه نمایش Screaming Frog میباشد.
در زیر، اسکرینشات صفحه پایینی نشان داده شده است که فرصتی انتخاب شده و جزئیات آن فرصت بهبود در پنل سمت راست نمایش داده شده است.
ابزار رسمی گوگل
گوگل ابزاری منتشر کرده است که میتواند یک ارزیابی ارائه دهد. این ابزار در اینجا قابل دسترسی است: Google Web.dev Measure
مراحل استفاده از ابزار:
- وارد کردن URL: URL مورد نظر خود را وارد کنید تا خلاصهای از عملکرد صفحه را مشاهده کنید.
- پیگیری زماندار: اگر وارد حساب کاربری خود شده باشید، گوگل عملکرد صفحه را در طول زمان برای شما پیگیری خواهد کرد.
- دسترسی به گزارش: با کلیک بر روی لینک View Report، صفحه جدیدی باز میشود که شامل گزارشی دقیق از مشکلات و لینکهایی به راهنماهایی است که نحوه رفع هر مشکل را نشان میدهد.