فهرست مطالب

5/5 - (1 امتیاز)

نمی‌خوام دروغ بگم: انجام یک بررسی عمیق سئو واقعاً کار بزرگیه.

و به عنوان یک مشاور سئو، جملاتی بهتر از “گزارش شما عالیه! کی می‌تونیم شما رو وارد تیم کنیم؟” وجود نداره.

حتی اگه به دنبال یک شغل جدید نباشید، اینکه بدونید گزارش سئوی شما موفق بوده، یک اعتماد به نفس فوق‌العاده می‌ده.

اما آیا شروع این کار شما رو می‌ترسونه؟ آیا این اولین بار شماست که یک بررسی سئو انجام می‌دید؟ یا شاید نمی‌دونید از کجا باید شروع کنید؟

ارسال یک گزارش سئو فوق‌العاده به مشتری بالقوه، شما رو در بهترین موقعیت ممکن قرار می‌ده.

تهیه گزارش سئو سایت

پس عجله نکنید. یادتون باشه: هدف اصلی شما اینه که با توصیه‌های سایتتون، هم در کوتاه‌مدت و هم بلندمدت به مشتری ارزش اضافه کنید.

در این مقاله، من مراحل ضروری برای انجام یک بررسی سئو رو جمع‌آوری کردم و یه نگاه کوتاهی هم به اولین مرحله از فرآیندهایی که وقتی یه مشتری جدید می‌گیرم، دارم، می‌اندازم. در بخش‌های زیر، این مراحل رو به تفکیک توضیح دادم. اگه فکر می‌کنید با یه بخش خوب آشنا هستید، می‌تونید به بخش بعدی برید.

چه زمانی باید یک سئو آدیت انجام دهم؟

بعد از اینکه یک مشتری بالقوه ایمیلی ارسال می‌کند و تمایل به همکاری نشان می‌دهد و به نظرسنجی من پاسخ می‌دهد، یک تماس ابتدایی (ترجیحاً از طریق اسکایپ یا گوگل هنگ‌آوت) ترتیب می‌دهیم.

قبل از تماس، یک بررسی سریع سئو به صورت دستی انجام می‌دهم (حداقل یک ساعت برای تحقیق دستی اختصاص می‌دهم) بر اساس پاسخ‌های نظرسنجی آن‌ها تا با بازار آن‌ها آشنا شوم. این شبیه به قرار گذاشتن با کسی است که قبلاً هرگز او را ندیده‌اید.

قطعاً قرار است آن‌ها را در فیس‌بوک، توییتر، اینستاگرام و همه کانال‌های عمومی دیگر بررسی کنید. #مثل_یه_ردیاب

اینجا نمونه‌ای از نظرسنجی من هست:

سوالات کلیدی که باید در اولین ملاقات از مشتری بپرسید:

  • اهداف کلی کسب‌وکار شما چیست؟ اهداف کانال‌های شما (روابط عمومی، شبکه‌های اجتماعی و غیره) چیست؟
  • مخاطب هدف شما چه کسی است؟
  • آیا شریک‌های تجاری دارید؟
  • وبسایت شما چند وقت یک‌بار به‌روزرسانی می‌شود؟ آیا یک توسعه‌دهنده وب یا بخش آی‌تی دارید؟
  • آیا تا به حال با یک مشاور سئو کار کرده‌اید؟ یا قبلاً کاری در زمینه سئو انجام داده‌اید؟

سوجان پاتل هم پیشنهادات عالی‌ای در مورد سوالاتی که باید از یک مشتری جدید سئو بپرسید دارد.

بعد از تماس، اگر احساس کنم ما با هم سازگار هستیم، پیشنهاد رسمی و قرارداد خود را ارسال می‌کنم (مرسی از HelloSign که این کار را برای من آسان کرده!).

برای شروع، همیشه دوست دارم به مشتری‌هایم یک ماه آزمایشی پیشنهاد بدهم تا مطمئن شویم با هم خوب کار می‌کنیم.

این ماه به من و مشتری فرصتی می‌دهد تا ابتدا با هم آشنا شویم. در طول این ماه، وقت کافی را برای انجام یک بررسی عمیق سئو اختصاص می‌دهم.

این سئو آدیت‌ها می‌توانند بین ۴۰ تا ۶۰ ساعت زمان ببرند، بسته به اندازه وبسایت. این آدیت‌ها به سه بخش جداگانه تقسیم می‌شوند و از طریق اسلایدهای گوگل ارائه می‌شوند:

  1. فنی: خطاهای خزش، ایندکس شدن، میزبانی و غیره.
  2. محتوا: تحقیق کلمات کلیدی، تحلیل رقبا، نقشه‌های محتوا، متادیتا و غیره.
  3. لینک‌ها: تحلیل پروفایل بک‌لینک‌ها، تاکتیک‌های رشد و غیره.

بعد از اولین ماه، اگر مشتری از کار من راضی باشد، ما شروع به اجرای توصیه‌های آدیت سئو می‌کنیم. از این به بعد، هر ماه یک آدیت کوچک و هر سه ماه یک آدیت عمیق انجام می‌دهم.

به‌طور خلاصه، من آدیت سئو را برای مشتری‌هایم در زمان‌های زیر انجام می‌دهم:

  1. ماه اول.
  2. ماهانه (آدیت کوچک).
  3. سه‌ماهه (آدیت عمیق).

آنچه قبل از شروع سئو آدیت از مشتری نیاز دارید

وقتی من و یک مشتری همکاری را آغاز می‌کنیم، یک سند گوگل (Google Doc) با آن‌ها به اشتراک می‌گذارم و از آن‌ها لیستی از رمزهای عبور و ارائه‌دهندگان مختلف را درخواست می‌کنم.

این لیست شامل موارد زیر است:

  • دسترسی به گوگل آنالیتیکس و هر ابزار تحلیلی ثالث دیگر
  • تبلیغات گوگل و بینگ
  • ابزارهای وبمستر (گوگل سرچ کنسول و بینگ)
  • دسترسی به بخش مدیریت وبسایت
  • حساب‌های رسانه‌های اجتماعی
  • لیست ارائه‌دهندگان
  • لیست اعضای تیم داخلی (شامل هر کاری که به بیرون سپرده شده)

ابزارهای لازم برای سئو آدیت

قبل از شروع سئو آدیت، در اینجا خلاصه‌ای از ابزارهایی که استفاده می‌کنم آورده شده است:

  • Screaming Frog
  • Integrity (برای کاربران مک) و Xenu Sleuth (برای کاربران ویندوز)
  • SEO Browser
  • Wayback Machine
  • Moz
  • BuzzSumo
  • DeepCrawl
  • Copyscape
  • Google Tag Manager
  • Google Tag Manager Chrome Extension
  • Annie Cushing’s Campaign Tagging Guide
  • Google Analytics (اگر دسترسی داده شود)
  • Google Search Console (اگر دسترسی داده شود)
  • Bing Webmaster Tools (اگر دسترسی داده شود)
  • You Get Signal
  • Pingdom
  • PageSpeed Tool
  • Sublime Text

انجام یک سئو آدیت فنی

ابزارهای مورد نیاز برای سئو آدیت فنی:

  • Screaming Frog
  • DeepCrawl
  • Copyscape
  • Integrity (برای کاربران مک) یا Xenu Sleuth (برای کاربران ویندوز)
  • Google Analytics (در صورت دسترسی)
  • Google Search Console (در صورت دسترسی)
  • Bing Webmaster Tools (در صورت دسترسی)

مرحله 1: افزودن سایت به DeepCrawl و Screaming Frog

ابزارها:

  • DeepCrawl
  • Copyscape
  • Screaming Frog
  • Google Analytics
  • Integrity
  • Google Tag Manager
  • کد Google Analytics

به چه نکاتی باید هنگام استفاده از DeepCrawl توجه کنید

اولین کاری که انجام می‌دهم این است که سایت مشتری را به DeepCrawl اضافه می‌کنم. بسته به اندازه سایت مشتری، ممکن است خزیدن سایت و دریافت نتایج یکی دو روز طول بکشد.

وقتی نتایج DeepCrawl را دریافت کردید، به این موارد توجه کنید:

  1. خطاهای خزش: به خطاهایی که مانع از خزش صحیح سایت توسط ربات‌ها می‌شود توجه کنید.
  2. وضعیت ایندکس شدن: بررسی کنید که چه صفحاتی ایندکس شده‌اند و چه صفحاتی ایندکس نشده‌اند.
  3. لینک‌های شکسته: هر لینک شکسته‌ای که باعث از دست رفتن ترافیک می‌شود را پیدا کنید.
  4. تگ‌های متا و عناوین تکراری یا نادرست: صفحات با تگ‌های متا یا عنوان تکراری یا غیردقیق را شناسایی کنید.
  5. سرعت سایت: بررسی کنید که آیا مشکلاتی در سرعت بارگذاری وجود دارد که باید برطرف شود.

این اولین بخش از سئو آدیت فنی شماست. این بررسی‌ها پایه‌ای برای بهبود عملکرد سایت از نظر فنی فراهم می‌کند و به گوگل و سایر موتورهای جستجو کمک می‌کند سایت شما را بهتر درک کنند.

محتوای تکراری

برای شناسایی محتوای تکراری، به گزارش “Duplicate Pages” مراجعه کنید.

اگر محتوای تکراری شناسایی شد، این موضوع را به عنوان اولویت اصلی در توصیه‌های خود به مشتری مطرح می‌کنم تا این صفحات بازنویسی شوند و در این بین، تگ <meta name="robots" content="noindex, nofollow"> را به صفحات تکراری اضافه می‌کنم.

خطاهای رایج محتوای تکراری که ممکن است کشف کنید:

  • تگ‌های متای تکراری و توضیحات متا
  • محتوای بدنه تکراری از صفحات برچسب (از Copyscape برای تعیین سرقت ادبی استفاده می‌کنم)
  • دو دامنه (مثلاً yourwebsite.co و yourwebsite.com)
  • زیر دامنه‌ها (مثلاً jobs.yourwebsite.com)
  • محتوای مشابه در دامنه‌های مختلف
  • صفحات پیمایش نادرست پیاده‌سازی شده

نحوه اصلاح:

  • افزودن تگ canonical به صفحات خود تا به گوگل بگویید کدام URL را ترجیح می‌دهید.
  • عدم اجازه به URLهای نادرست در robots.txt.
  • بازنویسی محتوا (شامل متن بدنه و متادیتا).

مثالی از مشکل محتوای تکراری

یک مثال از مشکل محتوای تکراری که با یکی از مشتریانم داشتم به این صورت بود که آن‌ها پارامترهای URL بدون تگ canonical داشتند.

گزارش صفحات deepcrawl با محتوای تکراری

اقداماتی که برای رفع مشکل انجام دادم:

  1. رفع هرگونه مشکل 301 redirect.
  2. افزودن یک تگ canonical به صفحه‌ای که می‌خواهم گوگل آن را خزیده و ایندکس کند.
  3. به‌روزرسانی تنظیمات پارامتر Google Search Console برای استثنا کردن هر پارامتری که محتوای منحصر به فردی ایجاد نمی‌کند.URLهای پارامتر در Google Search Console
  4. افزودن تابع disallow به robots.txt برای URLهای نادرست به منظور بهبود بودجه خزشی.

این مراحل به بهینه‌سازی سایت کمک می‌کند و از مشکلات محتوای تکراری جلوگیری می‌کند که می‌تواند تأثیر منفی بر رتبه‌بندی در نتایج جستجو داشته باشد.

صفحات پیمایش

برای بررسی صفحات پیمایش، دو گزارش زیر را بررسی کنید:

  1. گزارش صفحات اول (First Pages): برای شناسایی صفحاتی که از پیمایش استفاده می‌کنند، گزارش “First Pages” را مرور کنید. سپس می‌توانید به صورت دستی صفحات را بررسی کنید تا ببینید آیا پیمایش به درستی پیاده‌سازی شده است یا خیر.
  2. گزارش صفحات پیمایش بدون لینک (Unlinked Pagination Pages): برای بررسی اینکه آیا پیمایش به درستی کار می‌کند، گزارش “Unlinked Pagination Pages” به شما می‌گوید آیا تگ‌های rel="next" و rel="prev" به صفحات قبلی و بعدی لینک می‌دهند یا نه.

در مثال زیر، توانستم شناسایی کنم که یکی از مشتریان من از تگ‌های پیمایش متقابل استفاده می‌کرده است:

صفحات پیمایش بدون لینک DeepCrawl

نحوه اصلاح:

  • اگر یک صفحه “نمایش همه” یا “بارگذاری بیشتر” دارید، تگ rel="canonical" را اضافه کنید. به عنوان مثال، این یک نمونه از Crutchfield است:
  • اگر همه صفحات خود را در صفحات جداگانه دارید، تگ‌های استاندارد rel="next" و rel="prev" را اضافه کنید. به عنوان مثال، این یک نمونه از Macy’s است:
    تگ‌های استاندارد rel="next"
  • اگر از پیمایش بی‌نهایت (infinite scrolling) استفاده می‌کنید، URL معادل صفحه پیمایش‌شده را در جاوااسکریپت خود اضافه کنید. به عنوان مثال، این یک نمونه از American Eagle است:
    پیمایش بی‌نهایت (infinite scrolling)

با این اصلاحات، می‌توانید اطمینان حاصل کنید که صفحات پیمایش به درستی کار می‌کنند و کاربران و موتورهای جستجو به راحتی می‌توانند محتوای شما را پیدا کنند.

حداکثر تعداد ریدایرکت‌ها

برای بررسی صفحاتی که بیش از ۴ بار ریدایرکت می‌شوند، گزارش Max Redirections را مرور کنید. جان مولر در سال ۲۰۱۵ اشاره کرد که گوگل ممکن است در صورت وجود بیش از ۵ ریدایرکت، دیگر ریدایرکت‌ها را دنبال نکند.

در حالی که برخی از افراد این خطاهای خزش را به عنوان هدر رفتن بودجه خزش می‌دانند، گری ایلیز به آن به عنوان “بار سرور” (host load) اشاره می‌کند. مهم است که اطمینان حاصل کنید صفحات شما به درستی بارگذاری می‌شوند تا بار سرور به طور کارآمد استفاده شود.

خلاصه‌ای از کدهای پاسخ که ممکن است مشاهده کنید:

  • 301 – این‌ها کدهای رایج در طول تحقیقات شما هستند. ریدایرکت 301 تا زمانی که فقط یک بار انجام شود و حلقه ریدایرکت نداشته باشد، اشکالی ندارد.
  • 302 – این کدها قابل قبول هستند، اما اگر بیش از ۳ ماه باقی بمانند، بهتر است به صورت دستی آن‌ها را به 301 تغییر دهید تا دائمی شوند. این کد را معمولاً در سایت‌های تجارت الکترونیکی مشاهده می‌کنم وقتی محصولی در دسترس نیست.
  • 400 – کاربران نمی‌توانند به صفحه دسترسی پیدا کنند.
  • 403 – کاربران مجاز به دسترسی به صفحه نیستند.
  • 404 – صفحه پیدا نشد (معمولاً به این معنی است که مشتری صفحه‌ای را بدون ریدایرکت 301 حذف کرده است).
  • 500 – خطای داخلی سرور که باید با تیم توسعه وب برای تعیین علت آن تماس بگیرید.

نحوه اصلاح:

  1. حذف لینک‌های داخلی به صفحات 404: هر لینک داخلی که به صفحات 404 قدیمی اشاره می‌کند را حذف کنید و آن‌ها را با لینک‌های داخلی صفحات ریدایرکت شده به‌روزرسانی کنید.
  2. حذف زنجیره‌های ریدایرکت: زنجیره‌های ریدایرکت را با حذف ریدایرکت‌های میانی از بین ببرید. به عنوان مثال، اگر ریدایرکت A به B، C، و D می‌رود، باید ریدایرکت‌های B و C را حذف کنید. نتیجه نهایی این خواهد بود که ریدایرکت A به D منتقل می‌شود.

استفاده از Screaming Frog و Google Search Console

در صورت استفاده از نسخه‌های Screaming Frog یا Google Search Console، می‌توانید از ابزارهای موجود در این پلتفرم‌ها برای شناسایی و اصلاح زنجیره‌های ریدایرکت استفاده کنید. این روش به شما کمک می‌کند که بودجه خزش و کارایی سایت خود را حفظ کنید.

بررسی Screaming Frog

پس از دریافت سایت یک مشتری جدید، دومین کاری که انجام می‌دهم این است که URL آن‌ها را به Screaming Frog اضافه می‌کنم.

بسته به اندازه سایت مشتری، ممکن است تنظیمات را طوری پیکربندی کنم که بخش‌های خاصی از سایت را به‌طور جداگانه خزیده و بررسی کند.

تنظیمات Spider در Screaming Frog

در تنظیمات spider می‌توانید نواحی خاصی از سایت را برای خزش انتخاب کرده یا برخی از قسمت‌های سایت را از خزش مستثنی کنید.

مواردی که پس از دریافت نتایج Screaming Frog باید بررسی کنید:

1. کد Google Analytics

Screaming Frog می‌تواند به شما کمک کند صفحاتی را که فاقد کد Google Analytics (مثلاً UA-1234568-9) هستند شناسایی کنید. برای پیدا کردن صفحات فاقد کد Google Analytics، این مراحل را دنبال کنید:

  1. به Configuration در نوار ناوبری بروید و سپس Custom را انتخاب کنید.
  2. در فیلتر 1، عبارت analytics\.js را اضافه کنید و در منوی کشویی گزینه Does not contain را انتخاب کنید.

نحوه اصلاح:

  • با توسعه‌دهندگان مشتری تماس بگیرید و از آن‌ها بخواهید کد Google Analytics را به صفحاتی که این کد را ندارند اضافه کنند.

برای اطلاعات بیشتر در مورد Google Analytics، می‌توانید به بخش مربوط به آن در ادامه مراجعه کنید.

2.Google Tag Manager (مدیریت تگ گوگل)

Screaming Frog می‌تواند به شما کمک کند تا صفحاتی را که فاقد اسنیپت Google Tag Manager هستند شناسایی کنید. مراحل زیر را دنبال کنید:

  1. به تب Configuration در نوار ناوبری بروید، سپس Custom را انتخاب کنید.
  2. در فیلتر، عبارت <iframe src="//www.googletagmanager.com/ را اضافه کرده و گزینه Does not contain را انتخاب کنید.

نحوه رفع مشکل:

  • به Google Tag Manager بروید تا بررسی کنید آیا خطایی وجود دارد و در صورت لزوم، آن را به‌روزرسانی کنید.
  • کد مورد نظر را با توسعه‌دهندگان مشتری به اشتراک بگذارید تا آن را به سایت اضافه کنند.

3.Schema (داده‌های ساختاریافته)

باید بررسی کنید که آیا سایت مشتری شما از Schema markup یا داده‌های ساختاریافته استفاده می‌کند. Schema به موتورهای جستجو کمک می‌کند تا محتوای یک صفحه را بهتر درک کنند.

برای بررسی استفاده از Schema markup در Screaming Frog:

  1. به تب Configuration بروید و سپس Custom را انتخاب کنید.
  2. عبارت itemtype="http://schema.org/ را به فیلتر اضافه کنید و گزینه Contain را انتخاب کنید.

برای بررسی استفاده از Schema markup در Screaming Frog

نحوه رفع مشکل:

  • اگر Schema روی سایت وجود ندارد، پیشنهاد کنید که داده‌های ساختاریافته مرتبط مانند Schema برای محصولات، مقالات یا کسب‌وکارهای محلی به سایت اضافه شود.

4.ایندکس‌گذاری (Indexing)

برای تعیین تعداد صفحاتی که برای مشتری شما ایندکس شده‌اند، از Screaming Frog استفاده کنید:

  1. پس از اینکه سایت به‌طور کامل در Screaming Frog بارگذاری شد، به Directives بروید.
  2. فیلتر Index را اعمال کنید تا بررسی کنید آیا بخش‌هایی از کد ایندکس مشکل دارد یا خیر.

نحوه رفع مشکل:

  1. اگر سایت جدید است، ممکن است گوگل هنوز آن را ایندکس نکرده باشد.
  2. فایل robots.txt را بررسی کنید تا مطمئن شوید هیچ صفحه‌ای که می‌خواهید توسط گوگل خزیده و ایندکس شود، مسدود نشده است.
  3. مطمئن شوید که نقشه سایت مشتری را به Google Search Console و Bing Webmaster Tools ارسال کرده‌اید.
  4. اگر همچنان مشکل وجود دارد، تحقیق دستی انجام دهید تا به مشکلات احتمالی ایندکس‌گذاری پی ببرید.

5.Flash (فلش)

در سال 2016، گوگل اعلام کرد که Chrome به دلیل سرعت پایین بارگذاری صفحات، شروع به مسدود کردن Flash می‌کند. بنابراین، اگر در حال انجام یک SEO Audit هستید، باید بررسی کنید که آیا مشتری جدید شما از Flash استفاده می‌کند یا خیر.

برای این کار در Screaming Frog:

  1. به Spider Configuration در نوار ناوبری بروید.
  2. روی Check SWF کلیک کنید.
  3. پس از اتمام خزش، تب Internal را بر اساس Flash فیلتر کنید.

فلش در Screaming Frog

نحوه رفع مشکل:

  • ویدیوها را از یوتیوب جاسازی کنید. گوگل یوتیوب را در سال 2006 خرید، بنابراین بهترین انتخاب این است.
  • یا از استانداردهای HTML5 برای اضافه کردن ویدیوها استفاده کنید.

مثالی از کد HTML5 برای افزودن یک ویدیو:

کپی کد

6.JavaScript

طبق اعلام گوگل در سال 2015، استفاده از JavaScript در وب‌سایت‌ها مشکلی ندارد، به شرط اینکه چیزی در فایل robots.txt مسدود نشده باشد (در ادامه بیشتر بررسی خواهیم کرد). با این حال، باید نحوه ارائه جاوا اسکریپت در سایت را بررسی کنید.

نحوه رفع مشکل:

  • جاوا اسکریپت را بررسی کنید تا مطمئن شوید که در robots.txt مسدود نشده است.
  • اطمینان حاصل کنید که جاوا اسکریپت روی سرور اجرا می‌شود (این کار به تولید داده‌های ساده به جای داده‌های پویا کمک می‌کند).
  • اگر از Angular JavaScript استفاده می‌کنید، مقاله بن اورن را درباره تأثیرات آن بر SEO بخوانید.

در Screaming Frog:

  1. به Spider Configuration در نوار ناوبری بروید و روی Check JavaScript کلیک کنید.
  2. پس از اتمام خزش، نتایج را در تب Internal بر اساس JavaScript فیلتر کنید.

در نوار ناوبری بروید و روی Check JavaScript

7. Robots.txt

هنگام بررسی فایل robots.txt، باید ببینید آیا چیزی مهم مسدود یا غیرفعال شده است.

به عنوان مثال:

اگر این کد را ببینید:

کپی کد

سایت مشتری شما از دسترسی تمام خزنده‌های وب مسدود شده است.

اما اگر فایل robots.txt مثل زیر باشد، مشکلی نیست:

کپی کد

در این حالت، فقط صفحاتی که برای خزنده‌های وب کاربردی نیستند، مسدود شده‌اند.

نحوه رفع مشکل:

  • فایل robots.txt حساس به حروف بزرگ و کوچک است؛ پس همه حروف را کوچک کنید.
  • هر صفحه‌ای که Disallow شده و می‌خواهید توسط موتورهای جستجو کراول شود را حذف کنید.
  • به طور پیش‌فرض، Screaming Frog نمی‌تواند هیچ آدرسی که در robots.txt مسدود شده باشد را بارگذاری کند. اگر تنظیمات پیش‌فرض را تغییر دهید، Screaming Frog فایل robots.txt را نادیده می‌گیرد.

Screaming Frog فایل robots.txt

  • همچنین می‌توانید صفحات مسدود شده را در تب Response Codes و سپس فیلتر Blocked by Robots.txt مشاهده کنید.
  • اگر سایت شما چندین زیر دامنه دارد، باید برای هر کدام یک robots.txt جداگانه داشته باشید.
  • مطمئن شوید که نقشه سایت در فایل robots.txt فهرست شده است.

8. خطاهای Crawl

برای پیدا کردن و بررسی خطاهای خزش در سایت مشتری‌هایم، از ابزارهایی مثل DeepCrawl، Screaming Frog و ابزارهای وبمستر گوگل و بینگ استفاده می‌کنم.

مراحل پیدا کردن خطاهای خزش در Screaming Frog:

  1. پس از تکمیل خزش، به Bulk Reports بروید.
  2. به پایین بروید تا به Response Codes برسید و سپس گزارش خطاهای سرور و گزارش خطاهای کلاینت را صادر کنید.

نحوه رفع مشکلات:

  • گزارش خطاهای کلاینت: بیشتر خطاهای 404 را می‌توانید خودتان با 301 ریدایرکت کردن در بخش بک‌اند سایت رفع کنید.
  • گزارش خطاهای سرور: برای رفع این خطاها باید با تیم توسعه همکاری کنید تا علت را پیدا کنید. قبل از برطرف کردن این خطاها در پوشه اصلی سایت، مطمئن شوید که از سایت بکاپ گرفته‌اید. ممکن است فقط نیاز باشد یک فایل دسترسی .html جدید ایجاد کنید یا محدودیت حافظه PHP را افزایش دهید.
  • همچنین باید این ریدایرکت‌های دائمی را از نقشه سایت و هرگونه لینک داخلی یا خارجی حذف کنید.
  • از کد 404 در URL برای پیگیری بهتر در Google Analytics استفاده کنید.

9. زنجیره‌های ریدایرکت

زنجیره‌های ریدایرکت نه تنها تجربه کاربری ضعیفی را ایجاد می‌کنند، بلکه سرعت بارگذاری صفحات را کاهش داده و نرخ تبدیل را پایین می‌آورند. علاوه بر این، هرگونه اعتبار لینک‌هایی که پیشتر داشته‌اید از دست می‌رود.

رفع زنجیره‌های ریدایرکت می‌تواند به سرعت نتیجه خوبی برای هر شرکتی به همراه داشته باشد.

نحوه رفع مشکل:

  1. پس از تکمیل خزش در Screaming Frog، به Reports > Redirect Chains بروید تا مسیر ریدایرکت‌های سایت را مشاهده کنید.
  2. سپس در یک فایل اکسل، می‌توانید بررسی کنید که آیا ریدایرکت‌های 301 شما همچنان به صورت 301 باقی مانده‌اند یا خیر.
  3. اگر خطای 404 مشاهده کردید، لازم است که آن را سریعاً برطرف کنید.

زنجیره‌های ریدایرکت

تکمیل خزش در Screaming Frog، به Reports > Redirect Chains

10. لینک‌های داخلی و خارجی

وقتی یک کاربر روی لینکی به سایت شما کلیک می‌کند و با خطای 404 مواجه می‌شود، این تجربه کاربری خوبی نیست. همچنین، این موضوع به بهبود رتبه شما در موتورهای جستجو نیز کمکی نمی‌کند.

برای پیدا کردن لینک‌های داخلی و خارجی خراب، از Integrity در مک استفاده می‌کنم. اگر کاربر PC هستید، می‌توانید از Xenu Sleuth استفاده کنید. همچنین، در ادامه به شما نشان می‌دهم که چگونه این لینک‌ها را در Screaming Frog و DeepCrawl پیدا کنید.

نحوه رفع مشکل:

  1. اگر از Integrity یا Xenu Sleuth استفاده می‌کنید:
    • آدرس سایت مشتری خود را وارد کنید و لیستی کامل از URLهای خراب دریافت کنید.
    • می‌توانید به صورت دستی این لینک‌ها را به‌روزرسانی کنید یا اگر با تیم توسعه همکاری می‌کنید، از آن‌ها کمک بخواهید.
  2. اگر از Screaming Frog استفاده می‌کنید:
    • پس از اتمام خزش، به Bulk Export در نوار ناوبری بروید، سپس All Outlinks را انتخاب کنید.
    • می‌توانید بر اساس URLها مرتب‌سازی کنید و ببینید کدام صفحات سیگنال 404 ارسال می‌کنند.
    • همین کار را با All Inlinks نیز تکرار کنید.
    • لینک‌های داخلی و خارجی Screaming Frog
  3. اگر از DeepCrawl استفاده می‌کنید:
    • به زبانه Unique Broken Links در بخش Internal Links بروید.

11. URLها

هر بار که مشتری جدیدی را می‌پذیرید، باید فرمت URLهای او را بررسی کنید. به دنبال چه چیزی در URLها هستم؟

  1. پارامترها: اگر URL دارای کاراکترهای عجیبی مانند ؟، = یا + باشد، این URL یک URL دینامیک است که در صورت بهینه‌سازی نشدن می‌تواند باعث محتوای تکراری شود.
  2. کاربرپسند: دوست دارم URLها کوتاه و ساده باشند و همچنین هرگونه اسلش اضافی را حذف کنم.

نحوه رفع مشکل:

  • می‌توانید برای جستجوی URLهای دارای پارامتر در گوگل از عبارت زیر استفاده کنید:
    کپی کد

    یا هر چیزی که فکر می‌کنید شامل پارامتر باشد.

  • پس از اجرای خزش در Screaming Frog، به URLها نگاه کنید. اگر پارامترهایی را مشاهده کردید که باعث تکرار محتوای شما می‌شوند، باید موارد زیر را پیشنهاد دهید:
    • اضافه کردن تگ کنونیکال: تگ کنونیکال را به صفحه URL اصلی اضافه کنید. به عنوان مثال، اگر www.buyaunicorn.com/magical-headbands صفحه اصلی است و می‌بینید که www.buyaunicorn.com/magical-headbands/?dir=mode123$ وجود دارد، تگ کنونیکال باید به www.buyaunicorn.com/magical-headbands اضافه شود.
    • به‌روزرسانی پارامترها در Google Search Console: این کار را در مسیر Crawl > URL Parameters انجام دهید.
    • ممنوع کردن URLهای تکراری در robots.txt: این کار به جلوگیری از خزیدن موتورهای جستجو به این URLها کمک می‌کند.

مرحله ۲: بررسی Google Search Console و Bing Webmaster Tools

ابزارها:

  • Google Search Console
  • Bing Webmaster Tools
  • Sublime Text (یا هر ویرایشگر متنی دیگر)

تعیین دامنه ترجیحی

از زمان به‌روزرسانی Panda، روشن کردن دامنه ترجیحی برای موتورهای جستجو سودمند است. این کار همچنین کمک می‌کند تا اطمینان حاصل شود که تمام لینک‌ها به یک سایت توجه بیشتری می‌کنند و به جای اینکه بین دو سایت پخش شوند، متمرکز شوند.

نحوه رفع مشکل:

  1. در Google Search Console، روی آیکون چرخ دنده در گوشه بالا سمت راست کلیک کنید.
  2. URL مورد نظر را به عنوان دامنه ترجیحی انتخاب کنید.

(لینک تصویر فقط به عنوان مثال است)

  1. نیازی به تعیین دامنه ترجیحی در Bing Webmaster Tools نیست؛ فقط کافی است نقشه سایت خود را ارسال کنید تا به بینگ کمک کند دامنه ترجیحی شما را تعیین کند.

بک‌لینک‌ها

با اعلام اینکه به‌روزرسانی Penguin به صورت زمان واقعی اعمال می‌شود، این موضوع بسیار حیاتی است که بک‌لینک‌های مشتری شما با استانداردهای گوگل مطابقت داشته باشند.

اگر متوجه شدید که بخش بزرگی از بک‌لینک‌ها به سایت مشتری شما از یک صفحه خاص در یک وب‌سایت می‌آید، باید اقدام‌های لازم را برای پاک‌سازی آن انجام دهید و سریعاً این کار را انجام دهید!

نحوه رفع مشکل:

  1. در Google Search Console به بخش Links بروید و سپس Top linking sites را مرتب کنید.

    (لینک تصویر فقط به عنوان مثال است)

  2. با شرکت‌هایی که از یک صفحه به شما لینک داده‌اند تماس بگیرید و از آن‌ها بخواهید که لینک‌ها را حذف کنند.
  3. یا این لینک‌ها را به لیست disavow خود اضافه کنید. هنگام افزودن شرکت‌ها به لیست disavow خود، بسیار مراقب باشید که چگونه و چرا این کار را انجام می‌دهید. شما نمی‌خواهید لینک‌های با ارزش را حذف کنید.

مثال فایل disavow من:

کلیدواژه‌ها

به عنوان یک مشاور سئو، وظیفه من این است که بازار و چشم‌انداز مشتری‌ام را بشناسم. من باید بدانم که مخاطب هدف آن‌ها چه کسانی هستند، چه چیزی را جستجو می‌کنند و چگونه به جستجو می‌پردازند. برای شروع، نگاهی به کلمات کلیدی که در حال حاضر ترافیک را برای مشتری من ایجاد می‌کنند، می‌اندازم.

در Google Search Console، زیر Search Traffic > Search Analytics می‌توانید ببینید که کدام کلیدواژه‌ها در حال حاضر کلیک‌هایی برای مشتری شما ارسال می‌کنند.

کدام کلیدواژه‌ها در حال حاضر کلیک‌هایی برای مشتری شما ارسال می‌کنند

(لینک تصویر فقط به عنوان مثال است)

نقشه سایت

نقشه‌های سایت برای کمک به موتورهای جستجو در خزیدن در وب‌سایت مشتری شما بسیار ضروری هستند. نقشه‌های سایت با زبان موتورهای جستجو صحبت می‌کنند. هنگام ایجاد نقشه‌های سایت، چند نکته وجود دارد که باید بدانید:

  • آدرس‌های URL حاوی پارامتر را در نقشه سایت خود شامل نکنید.
  • هیچ صفحه‌ای که قابل نمایه‌گذاری نیست را شامل نکنید.
  • اگر سایت دارای زیر دامنه‌های مختلف برای موبایل و دسکتاپ است، حتماً تگ rel=”alternate” را به نقشه سایت اضافه کنید.

نحوه رفع مشکل:

  1. به Google Search Console بروید > Index > Sitemaps تا URLهای نمایه‌گذاری شده در نقشه سایت را با URLهای موجود در وب‌سایت مقایسه کنید.
    نقشه سایت

    (لینک تصویر فقط به عنوان مثال است)

  2. سپس یک جستجوی دستی انجام دهید تا مشخص کنید کدام صفحات نمایه‌گذاری نمی‌شوند و چرا.
  3. اگر URLهای قدیمی که به آدرس‌های جدید منتقل شده‌اند را در نقشه سایت مشتری‌تان پیدا کردید، آن‌ها را حذف کنید. این Redirectهای قدیمی در صورت عدم حذف می‌توانند تأثیر منفی بر سئوی شما داشته باشند.
  4. اگر مشتری جدیدی دارید، یک نقشه سایت جدید برای آن‌ها در هر دو Bing Webmaster Tools و Google Search Console ارسال کنید.

افزودن نقشه سایت جدید

خزیدن (Crawl)

خطاهای خزیدن (Crawl Errors) اهمیت زیادی دارند زیرا نه تنها تجربه کاربری را تحت تأثیر قرار می‌دهند، بلکه می‌توانند بر رتبه‌بندی وب‌سایت شما نیز تأثیر منفی بگذارند. جان مولر (John Mueller) اشاره کرده است که نرخ خزیدن پایین می‌تواند نشانه‌ای از کیفیت پایین یک وب‌سایت باشد.

برای بررسی این مورد در Google Search Console، به مسیر Coverage > Details بروید.

خطاهای خزیدن (Crawl Errors)

برای بررسی این مورد در Bing Webmaster Tools، به مسیر Reports & Data > Crawl Information بروید.

خزیدن در Bing Webmaster

نحوه رفع مشکل:

  1. بررسی دستی: خطاهای خزیدن را به‌صورت دستی بررسی کنید تا تعیین کنید آیا این خطاها ناشی از محصولات قدیمی هستند که دیگر وجود ندارند یا اینکه خطاهایی وجود دارد که باید در فایل robots.txt مسدود شوند.
  2. اجرای Redirect 301: پس از شناسایی منابع خطاها، می‌توانید Redirect 301 را به صفحات مشابهی که به صفحات مرده لینک می‌دهند، اعمال کنید.
  3. بررسی آمار خزیدن: همچنین باید آمار خزیدن را در Google Search Console با زمان بارگذاری متوسط در Google Analytics مقایسه کنید تا ببینید آیا بین زمان صرف شده برای دانلود و تعداد صفحاتی که در روز خزیده شده‌اند، همبستگی وجود دارد.

داده‌های ساختاری (Structured Data)

همانطور که در بخش Schema در Screaming Frog اشاره شد، شما می‌توانید نشانه‌گذاری ساختاری (Schema Markup) وب‌سایت مشتری خود را در Google Search Console بررسی کنید.

از گزارش وضعیت نتایج غنی فردی (Individual Rich Results Status Report) در Google Search Console استفاده کنید. (توجه: گزارش داده‌های ساختاری دیگر در دسترس نیست.) این گزارش به شما کمک می‌کند تا مشخص کنید کدام صفحات دارای خطاهای داده‌های ساختاری هستند که باید در آینده برطرف شوند.

نحوه رفع مشکل:

  1. بررسی خطاها: Google Search Console به شما خواهد گفت که چه چیزی در نشانه‌گذاری ساختاری شما از دست رفته است، وقتی که نسخه زنده را آزمایش می‌کنید.
  2. اصلاح نشانه‌گذاری: بر اساس کدهای خطای دریافتی، نشانه‌گذاری را در یک ویرایشگر متنی (مثل Sublime Text) دوباره بنویسید و آن را به تیم توسعه وب ارسال کنید تا به‌روزرسانی انجام دهند. کاربران Mac می‌توانند از ویرایشگر متن داخلی استفاده کنند و کاربران PC می‌توانند از گزینه‌های مختلف موجود بهره ببرند.

این مراحل به شما کمک می‌کند تا نشانه‌گذاری ساختاری را بهینه کنید و از نمایه‌سازی بهتر صفحات وب‌سایت مشتری خود اطمینان حاصل کنید.

مرحله ۳: بررسی Google Analytics

ابزارها:

  • Google Analytics
  • Google Tag Manager Assistant Chrome Extension
  • راهنمای برچسب‌گذاری کمپین آنی کاشینگ (Annie Cushing Campaign Tagging Guide)

نمایه‌ها (Views)

زمانی که مشتری جدیدی می‌گیرم، سه نمایه مختلف در Google Analytics تنظیم می‌کنم:

  1. نمایه گزارش‌دهی (Reporting View)
  2. نمایه اصلی (Master View)
  3. نمایه تست (Test View)

این نمایه‌های مختلف به من این امکان را می‌دهند که تغییراتی ایجاد کنم بدون اینکه بر روی داده‌ها تأثیر بگذارم.

نحوه رفع مشکل:

  • ایجاد نمایه‌ها: در Google Analytics به مسیر Admin > View > View Settings بروید و سه نمایه مذکور را ایجاد کنید.
  • فیلتر کردن ربات‌ها: اطمینان حاصل کنید که بخش Bot Filtering را بررسی کنید تا همه‌ی تأثیرات ناشی از ربات‌ها و عنکبوت‌ها حذف شوند.
  • اتصال به Google Ads و Google Search Console: همچنین مطمئن شوید که حساب‌های Google Ads و Google Search Console به یکدیگر متصل شده‌اند.

  • فعال‌سازی ردیابی جستجوی سایت: در نهایت، اطمینان حاصل کنید که Site Search Tracking فعال است.

این اقدامات به شما کمک می‌کند تا از صحت داده‌های تحلیلی خود اطمینان حاصل کنید و به درک بهتری از عملکرد وب‌سایت مشتری بپردازید.

فیلترها

برای اطمینان از اینکه ترافیک نادرست را در Google Analytics دریافت نمی‌کنید، باید آدرس IP خود و آدرس IP مشتری‌تان را به فیلترها اضافه کنید.

نحوه رفع مشکل:

  1. به مسیر Admin > View > Filters بروید.
  2. تنظیمات باید به صورت Exclude > traffic from the IP addresses > that are equal to تنظیم شود.

کد ردیابی

شما می‌توانید به صورت دستی کد منبع را بررسی کنید یا از تکنیک‌های Screaming Frog که قبلاً توضیح داده‌ام، استفاده کنید.

اگر کد در سایت وجود دارد، باید اطمینان حاصل کنید که در زمان واقعی فعال است.

نحوه بررسی:

  1. به وب‌سایت مشتری‌تان بروید و کمی در سایت کلیک کنید.
  2. سپس به Google Analytics > Real-Time > Locations بروید و ببینید که موقعیت شما باید به‌روز شود.

اگر از Google Tag Manager استفاده می‌کنید، می‌توانید این موضوع را با استفاده از Google Tag Assistant Chrome extension نیز بررسی کنید.

نحوه رفع مشکل:

  • اگر کد فعال نیست، باید کد اسنپت را بررسی کنید تا مطمئن شوید که صحیح است. اگر چندین سایت را مدیریت می‌کنید، ممکن است کد سایت دیگری را اضافه کرده باشید.
  • قبل از کپی کردن کد، از ویرایشگر متن (text editor) استفاده کنید، نه از پردازشگر متن (word processor)، زیرا این کار می‌تواند باعث اضافه شدن کاراکترهای اضافی یا فضای خالی شود.
  • توجه داشته باشید که توابع به حروف بزرگ و کوچک حساس هستند، بنابراین بررسی کنید که همه چیز در کد به صورت حروف کوچک نوشته شده باشد.

ایندکس‌گذاری

اگر فرصتی برای کار کردن با Google Search Console داشته‌اید، احتمالاً متوجه بخش Coverage شده‌اید.

زمانی که من در حال ارزیابی یک مشتری هستم، ایندکس‌گذاری آن‌ها را در Google Search Console با Google Analytics مقایسه می‌کنم. مراحل انجام این کار به شرح زیر است:

  1. در Google Search Console، به بخش Coverage بروید.
  2. در Google Analytics، به مسیر Acquisition > Channels > Organic Search > Landing Page بروید.
Google Search Console
  1. پس از رسیدن به اینجا، به Advanced > Site Usage > Sessions > 9 بروید.

نحوه رفع مشکل:

  • اعداد را از Google Search Console با اعداد Google Analytics مقایسه کنید. اگر اعداد به‌طور چشمگیری متفاوت باشند، این بدان معناست که هرچند صفحات ایندکس شده‌اند، فقط بخشی از آن‌ها ترافیک ارگانیک دریافت می‌کنند.

این مقایسه به شما کمک می‌کند تا بفهمید آیا صفحات ایندکس شده واقعاً ترافیک قابل توجهی را جذب می‌کنند یا خیر، و در صورت نیاز، می‌توانید استراتژی‌های بهینه‌سازی مناسب را پیاده‌سازی کنید.

برچسب‌گذاری کمپین

آخرین موردی که باید در Google Analytics بررسی کنید، این است که آیا مشتری شما برچسب‌گذاری کمپین را به درستی انجام می‌دهد یا خیر. شما نمی‌خواهید به خاطر فراموش کردن برچسب‌گذاری کمپین، اعتبار کار خود را از دست بدهید.

نحوه رفع مشکل:

  1. استراتژی برچسب‌گذاری کمپین را برای Google Analytics تنظیم کنید و آن را با مشتری خود به اشتراک بگذارید. Annie Cushing یک راهنمای عالی برای برچسب‌گذاری کمپین تهیه کرده است.
  2. اگر مشتری شما از تبلیغات موبایلی یا ویدئویی استفاده می‌کند، ردیابی رویدادها را راه‌اندازی کنید.

کلمات کلیدی

شما می‌توانید از Google Analytics برای کسب اطلاعات در مورد کلمات کلیدی پتانسیل برای مشتری خود استفاده کنید. برای پیدا کردن کلمات کلیدی در Google Analytics مراحل زیر را دنبال کنید:

  1. به Google Analytics بروید و مسیر زیر را دنبال کنید: Behavior > Site Search > Search Terms. این بخش نمایی از آنچه مشتریان در وب‌سایت جستجو می‌کنند، به شما می‌دهد.
  1. سپس، از آن اصطلاحات جستجو برای ایجاد یک Segment جدید در Google Analytics استفاده کنید تا ببینید چه صفحاتی در وب‌سایت برای آن کلمه کلیدی خاص رتبه‌بندی شده‌اند.

Segment جدید در Google Analytics

مرحله ۴: بررسی دستی

ابزارها:

  • Google Analytics
  • دسترسی به سرور و هاست مشتری
  • You Get Signal
  • Pingdom
  • PageSpeed Tools
  • Wayback Machine

یک نسخه از وب‌سایت مشتری شما قابل جستجو است

تمام روش‌های مختلفی که می‌توانید برای جستجوی یک وب‌سایت استفاده کنید را بررسی کنید. به عنوان مثال:

  • http://annaisaunicorn.com
  • https://annaisaunicorn.com
  • http://www.annaisaunicorn.com

به قول Highlander، “فقط یک وب‌سایت قابل جستجو وجود دارد.”

نحوه رفع مشکل:

از یک Redirect 301 برای تمام URLهایی که به غیر از سایت اصلی هستند به سایت کاننیکال استفاده کنید.

ایندکس‌گذاری

یک جستجوی دستی در Google و Bing انجام دهید تا تعیین کنید چند صفحه توسط Google ایندکس شده است. این عدد همیشه با داده‌های Google Analytics و Google Search Console دقیق نیست، اما باید تخمینی rough به شما بدهد.

برای بررسی، مراحل زیر را انجام دهید:

  • یک جستجوی سایت در موتورهای جستجو انجام دهید:
    • site:annaisaunicorn.com

  • هنگام جستجو، به طور دستی اسکن کنید تا مطمئن شوید که فقط برند مشتری شما ظاهر می‌شود.
  • بررسی کنید که آیا صفحه اصلی در صفحه اول نتایج قرار دارد یا خیر. John Mueller گفته است که ضروری نیست که صفحه اصلی به عنوان اولین نتیجه ظاهر شود.

نحوه رفع مشکل:

  • اگر برند دیگری در نتایج جستجو ظاهر می‌شود، شما با یک مشکل بزرگ‌تری مواجه هستید. باید به تحلیل داده‌ها بپردازید تا مشکل را شناسایی کنید.
  • اگر صفحه اصلی به عنوان اولین نتیجه ظاهر نمی‌شود، بررسی دستی وب‌سایت را انجام دهید تا ببینید چه چیزی کم دارد. این ممکن است به معنای وجود یک جریمه یا معماری ضعیف سایت باشد که نیاز به یک redesign بزرگ دارد.
  • تعداد صفحات فرود ارگانیک در Google Analytics را با تعداد نتایج جستجو که در موتور جستجو مشاهده کرده‌اید، مقایسه کنید. این می‌تواند به شما کمک کند تا تعیین کنید کدام صفحات برای موتورهای جستجو ارزشمند هستند.

کش (Caching)

برای بررسی اینکه آیا صفحات برتر مشتری شما توسط Google کش شده‌اند یا خیر، می‌توانید مراحل زیر را دنبال کنید:

  • از این URL استفاده کنید:

http://webcache.googleusercontent.com/search?q=cache:https://www.searchenginejournal.com/pubcon-day-3-women-in-digital-amazon-analytics/176005/

  • مطمئن شوید که به نسخه Text-only سوئیچ کرده‌اید.
  • همچنین می‌توانید این اطلاعات را در Wayback Machine بررسی کنید.

نحوه رفع مشکل:

  • سرور مشتری را بررسی کنید تا ببینید آیا سرور خاموش است یا کندتر از حد معمول کار می‌کند. ممکن است یک خطای داخلی سرور یا مشکل در اتصال پایگاه داده وجود داشته باشد. این مشکل می‌تواند به دلیل دسترسی همزمان چندین کاربر به سرور باشد.
  • بررسی کنید که چه کسی دیگری روی سرور شماست با استفاده از بررسی IP معکوس. می‌توانید از وب‌سایت You Get Signal برای این مرحله استفاده کنید. اگر دامنه‌های مشکوکی با سرور مشتری شما مشترک هستند، ممکن است نیاز به ارتقای سرور مشتری یا استفاده از یک CDN داشته باشید.
  • بررسی کنید که آیا مشتری صفحات خاصی را از سایت حذف می‌کند یا خیر.

هاستینگ (Hosting)

اگرچه این بخش ممکن است برای برخی کمی فنی به نظر برسد، اما بررسی نرم‌افزار هاستینگ مرتبط با وب‌سایت مشتری شما برای موفقیت SEO ضروری است. هاستینگ می‌تواند بر SEO تأثیر منفی بگذارد و تمام زحمات شما را بی‌نتیجه کند.

برای بررسی مشکلات، به دسترسی به سرور مشتری نیاز دارید. متداول‌ترین مشکلات هاستینگ که می‌بینم عبارتند از:

  • داشتن TLD نادرست
  • سرعت سایت پایین

نحوه رفع مشکل:

  • اگر مشتری شما TLD نادرستی دارد، باید اطمینان حاصل کنید که آدرس IP کشوری که بیشترین عملیات را در آن انجام می‌دهد، مرتبط است. اگر مشتری شما دامنه .co و همچنین دامنه .com دارد، باید دامنه .co را به دامنه اصلی .com مشتریتان ریدایرکت کنید.
  • اگر مشتری شما سرعت سایت پایین دارد، باید به سرعت به این موضوع رسیدگی کنید زیرا سرعت سایت یک عامل رتبه‌بندی است. با استفاده از ابزارهایی مانند PageSpeed Tools و Pingdom بفهمید چه عواملی باعث کندی سایت می‌شوند. در اینجا برخی از مشکلات متداول سرعت صفحه آورده شده است:
    • هاست
    • تصاویر بزرگ
    • ویدیوهای جاسازی شده
    • افزونه‌ها
    • تبلیغات
    • قالب
    • ویدجت‌ها
    • اسکریپت‌های تکراری یا کد متراکم

بررسی این موارد به بهبود عملکرد و SEO سایت مشتری شما کمک خواهد کرد.

بررسی Core Web Vitals

Core Web Vitals مجموعه‌ای از سه معیار کلیدی است که تجربه کاربری یک وب‌سایت را نمایندگی می‌کند. این معیارها به دلیل ادغام آن‌ها در الگوریتم‌های رتبه‌بندی گوگل در بهار 2021 اهمیت زیادی پیدا کردند. اگرچه تأثیر آن‌ها بر رتبه‌بندی نسبتا کوچک است، اما بررسی این امتیازات به دلیل بهبود عملکرد کلی وب‌سایت و رضایت کاربران بسیار مهم است.

اهمیت گنجاندن Core Web Vitals در بررسی شما

  1. رتبه‌بندی در موتورهای جستجو: هرچند که تأثیر آن‌ها بر رتبه‌بندی به نسبت کم است، اما بهبود Core Web Vitals می‌تواند به افزایش دید وب‌سایت در نتایج جستجو کمک کند.
  2. تبدیل‌ها و درآمد: تجربه کاربری بهتر معمولاً به افزایش نرخ تبدیل، ترافیک بیشتر و کلیک‌های بیشتر بر روی تبلیغات منجر می‌شود که به‌طور مستقیم بر درآمد تأثیر دارد.
  3. عملکرد و سرعت: بهبود سرعت و عملکرد کلی صفحه به افزایش تعامل کاربران و تجربه مثبت آن‌ها مرتبط است.
  4. مسائل مربوط به سرور: حتی اگر یک سرور سریع داشته باشید، یک اتصال اینترنتی کند بر روی تلفن‌های همراه ارزان‌قیمت ممکن است مانع تجربه کاربری بهینه شود. بنابراین، سرعت سرور ممکن است به تنهایی به بهبود Core Web Vitals کمک نکند.
  5. محدودیت‌های سیستم‌های مدیریت محتوا: بسیاری از سیستم‌های مدیریت محتوا (مانند وردپرس یا دروپال) به‌طور ابتدایی برای امتیازدهی خوب در Core Web Vitals طراحی نشده‌اند. به همین دلیل، بهینه‌سازی برای این معیارها معمولاً نیازمند تغییرات عمده در کدها است.
  6. نیاز به تخصص توسعه‌دهندگان: اکثر راه‌حل‌های مربوط به مسائل Core Web Vitals نیاز به همکاری با توسعه‌دهندگانی دارد که با تغییرات در فایل‌های اصلی CMS آشنا هستند.

هدف از بررسی Core Web Vitals

هدف از انجام بررسی Core Web Vitals شناسایی مشکلات موجود و انتقال این اطلاعات به یک توسعه‌دهنده است تا او بتواند تغییرات لازم را اعمال کند. به طور خلاصه، بهبود Core Web Vitals به معنای انجام کارهایی است که وب‌سایت هرگز برای آن‌ها طراحی نشده بود و این فرآیند معمولاً به همکاری نزدیک با توسعه‌دهندگان نیاز دارد.

Core Web Vitals چیست؟

Core Web Vitals شامل سه معیار است که به‌طور کلی نحوه بارگذاری سریع‌ترین قسمت‌های مهم صفحه، سرعت تعامل کاربر با صفحه (مانند کلیک بر روی یک دکمه) و سرعت تثبیت صفحه وب بدون جابه‌جایی عناصر آن را شناسایی می‌کند.

این معیارها عبارتند از:

  1. Largest Contentful Paint (LCP): زمان بارگذاری بزرگ‌ترین عنصر محتوایی که کاربر در صفحه می‌بیند.
  2. First Input Delay (FID): زمانی که طول می‌کشد تا صفحه به اولین ورودی کاربر پاسخ دهد.
  3. Cumulative Layout Shift (CLS): میزان جابه‌جایی عناصر صفحه در حین بارگذاری.

دو نوع امتیاز برای Core Web Vitals وجود دارد:

  1. داده‌های آزمایشگاهی (Lab Data):
    داده‌های آزمایشگاهی زمانی تولید می‌شوند که صفحه‌ای را از طریق Google Lighthouse یا PageSpeed Insights بررسی می‌کنید.
    این داده‌ها شامل امتیازاتی هستند که با استفاده از دستگاه و اتصال اینترنت شبیه‌سازی شده تولید می‌شوند. هدف این است که به شخصی که روی سایت کار می‌کند، ایده‌ای درباره قسمت‌هایی از Core Web Vitals که نیاز به بهبود دارند، بدهد.
    ارزش ابزاری مانند PageSpeed Insights این است که کدها و عناصر صفحه خاصی را که باعث امتیاز پایین صفحه می‌شوند شناسایی می‌کند.
  2. داده‌های واقعی (Field Data):
    داده‌های واقعی، امتیازهای واقعی Core Web Vitals هستند که توسط مرورگر Google Chrome برای گزارش تجربه کاربری Chrome (که به‌عنوان CrUX نیز شناخته می‌شود) جمع‌آوری شده‌اند.
    داده‌های واقعی در Google Search Console زیر برگه “Enhancements” در لینک مشخص شده با عنوان Core Web Vitals قابل دسترسی هستند (لینک).

داده‌های واقعی گزارش‌شده در Google Search Console از صفحاتی که حداقل میزان بازدید و اندازه‌گیری را داشته‌اند، جمع‌آوری می‌شوند. اگر گوگل امتیازات کافی دریافت نکند، Google Search Console آن امتیاز را گزارش نخواهد کرد.

استفاده از Screaming Frog برای ارزیابی Core Web Vitals

نسخه 14.2 از Screaming Frog اکنون قابلیت نمایش ارزیابی Core Web Vitals به‌صورت «قبول» یا «رد» را دارد. برای استفاده از این قابلیت، شما نیاز دارید که Screaming Frog را به API PageSpeed Insights متصل کنید (می‌توانید API Key خود را از اینجا دریافت کنید).

مراحل ثبت‌نام API Key در Screaming Frog:

  1. به Configuration بروید.
  2. به API Access و سپس PageSpeed Insights بروید.
  3. در آنجا، مکانی برای وارد کردن API Key خود خواهید دید و می‌توانید آن را به سرویس متصل کنید.

در همان پنجره PageSpeed Insights، می‌توانید به تب Metrics بروید و جعبه‌های مربوط به معیارهایی که می‌خواهید گزارش شوند را انتخاب کنید. حتماً دستگاه Mobile را انتخاب کنید زیرا این معیار برای مقاصد رتبه‌بندی اهمیت دارد.

اگر به تب Opportunities بروید، پس از اتمام خزیدن، Screaming Frog فهرستی از انواع بهبودها (مانند تعویق بارگذاری تصاویر غیرضروری، حذف CSS های غیرضروری و غیره) را به شما نمایش می‌دهد.

نکته قبل از خزیدن

به‌طور کلی، نیازی به خزیدن در کل سایت و تولید گزارشی دقیق از مشکلات هر صفحه نیست.

قبل از خزیدن، ممکن است بخواهید یک مجموعه نماینده از صفحات را خزیده و بررسی کنید. برای این کار، ابتدا یک گروه از صفحات که نمایانگر نوع صفحات رایج در هر بخش یا دسته از وب‌سایت هستند، انتخاب کنید. می‌توانید یک صفحه گسترده، فایل متنی، یا URLها را به‌صورت دستی در تب Upload در Screaming Frog بچسبانید.

بیشتر سایت‌ها شامل صفحاتی هستند که با ساختار و محتوای مشابه ایجاد شده‌اند. به‌عنوان مثال، تمام صفحات در یک دسته «اخبار» نسبتاً مشابه هستند و صفحات در یک دسته «بررسی» نیز به یکدیگر شباهت خواهند داشت.

شما می‌توانید با خزیدن یک گروه نماینده از صفحات، در شناسایی مشکلات رایج در هر دسته و همچنین مشکلات عمومی در تمام صفحات سایت که نیاز به رفع دارند، صرفه‌جویی کنید.

به‌خاطر این شباهت‌ها، مشکلات کشف‌شده معمولاً مشابه خواهند بود. ممکن است فقط لازم باشد یک گروه کوچک از صفحات نماینده از هر نوع دسته را خزیده و مشکلات خاص هر یک از آن بخش‌ها را شناسایی کنید.

مشکلاتی که معمولاً نیاز به اصلاح دارند، مشکلات کلی سایت هستند که در کل سایت شایع‌اند، مانند CSS غیرضروری که از هر صفحه بارگذاری می‌شود یا جابه‌جایی کلی در طراحی (Cumulative Layout Shift) ناشی از واحدهای تبلیغاتی که در قسمت چپ صفحات وب قرار دارند.

با توجه به اینکه وب‌سایت‌های مدرن معمولاً به‌صورت الگو طراحی می‌شوند، اصلاحات در سطح الگو یا با کدنویسی سفارشی در فایل CSS و غیره انجام خواهد شد.

خزیدن در سایت با Screaming Frog

پس از خزیدن کامل URLها، می‌توانید به تب PageSpeed بروید و تمام توصیه‌ها را مشاهده کرده و نمرات قبول/رد برای معیارهای مختلف را بررسی کنید.

تمرکز بر فرصت‌های URL

یکی از ویژگی‌های مفید در ارزیابی Core Web Vitals در Screaming Frog، توانایی انتخاب یک URL از لیست URLها در بالای صفحه است و سپس مشاهده فرصت‌های بهبود در پایین صفحه نمایش Screaming Frog می‌باشد.

در زیر، اسکرین‌شات صفحه پایینی نشان داده شده است که فرصتی انتخاب شده و جزئیات آن فرصت بهبود در پنل سمت راست نمایش داده شده است.

ابزار رسمی گوگل

گوگل ابزاری منتشر کرده است که می‌تواند یک ارزیابی ارائه دهد. این ابزار در اینجا قابل دسترسی است: Google Web.dev Measure

مراحل استفاده از ابزار:

  1. وارد کردن URL: URL مورد نظر خود را وارد کنید تا خلاصه‌ای از عملکرد صفحه را مشاهده کنید.
  2. پیگیری زمان‌دار: اگر وارد حساب کاربری خود شده باشید، گوگل عملکرد صفحه را در طول زمان برای شما پیگیری خواهد کرد.
  3. دسترسی به گزارش: با کلیک بر روی لینک View Report، صفحه جدیدی باز می‌شود که شامل گزارشی دقیق از مشکلات و لینک‌هایی به راهنماهایی است که نحوه رفع هر مشکل را نشان می‌دهد.

منبع : How to Perform an In-Depth Technical SEO Audit

5/5 - (1 امتیاز)