فهرست مطالب
در سال 2005، گوگل یک سری بهروزرسانیهای الگوریتمی را منتشر کرد که با نام الگوریتم Jagger شناخته میشود. این نام، همانند بسیاری از بهروزرسانیهای دیگر گوگل، توسط برت تابکه از وبسایت WebmasterWorld انتخاب شد. الگوریتم Jagger، مانند دیگر تغییرات بزرگ گوگل همچون الگوریتم Big Daddy و بهروزرسانی دزد دریایی، طی چند هفته به طور مرحلهای منتشر شد. بر اساس دادهها، آغاز این تغییرات به اوایل سپتامبر همان سال بازمیگردد. در اواسط اکتبر نیز گوگل بیانیهای منتشر کرد که در آن نحوه تحلیل و درک لینکهایی که به یک وبسایت خاص اشاره دارند، توضیح داده شد.
پیش از انتشار الگوریتم Jagger، آخرین بهروزرسانی اصلی گوگل مربوط به الگوریتم فلوریدا در سال 2003 بود. بنابراین، با توجه به فاصله زمانی بین این دو بهروزرسانی مهم، عرضه الگوریتم Jagger توجه گستردهای را در میان جامعه فعالان سئو به خود جلب کرد و بحثهای فراوانی در انجمنها و وبلاگهای تخصصی ایجاد شد.
جدول زمانی بهروزرسانی Jagger
الگوریتم Jagger در سپتامبر 2005 با مجموعهای از بهروزرسانیها که تمرکز اصلی آنها بر روی بکلینکها بود، آغاز شد. این روند تا اکتبر همان سال ادامه داشت. در این بازه، بهروزرسانی پایگاه داده پیجرنک گوگل نیز رخ داد، که خود به عنوان یک رویداد مهم در نظر گرفته میشد. اگرچه امروزه پیجرنک دیگر بهصورت عمومی در دسترس نیست، اما آخرین بهروزرسانی نوار ابزار عمومی PageRank در دسامبر 2013 انجام شد و گوگل اعلام کرد که قصد ندارد آن را مجدداً بهروزرسانی کند.
قسمت دوم و سوم بهروزرسانی الگوریتم Jagger نیز تا نوامبر 2005 ادامه یافت.
تأثیر Jagger بر سایتها
بهروزرسانی Jagger تغییرات گستردهای در الگوریتم گوگل ایجاد کرد که تأثیر زیادی بر روی بکلینکهای سایتها، حجم محتوا، نرخ تازهسازی محتوا و تعدادی از عوامل فنی دیگر داشت.
محتوا
یکی از مهمترین تأثیرات این الگوریتم، تنبیه وبسایتهایی بود که محتوای تکراری داشتند. سایتهایی که نسخههای مختلفی از صفحات خود را در دامنههای متفاوت منتشر کرده بودند، دچار افت رتبه شدند. پس از قسمت سوم بهروزرسانی، بسیاری از مدیران وبسایتها با مشکلات مربوط به کپیسازی داخلی و نحوه مدیریت نسخههای Canonical مواجه شدند. وبسایتهایی که نسخههایی از صفحات خود را هم با اسلش انتهایی و هم بدون آن (مانند index.html و index.html/) ارائه میکردند، با مسائل جدی در کپیبرداری مواجه شدند. علاوه بر این، وبسایتهایی که تعداد زیادی صفحه ورودی داشتند نیز از تأثیرات منفی این بهروزرسانی مصون نماندند.
بکلینکهای اسپم
الگوریتم Jagger رویکرد جدیدی را در ارزیابی بکلینکها به کار گرفت. این الگوریتم، انکر تکست، محتوای صفحه لینکدهنده و سرعت ایجاد لینکهای ورودی به یک سایت را مدنظر قرار داد. سایتهایی که از روشهای غیرقانونی مانند خرید بکلینک از سرویسهای ماهانه سئو استفاده میکردند، با افت رتبه مواجه شدند. گوگل توانست با الگوریتم Jagger لینکهای بیکیفیت را شناسایی کند و سایتهایی که از لینکهای سراسری خریداریشده، تبادل لینک با وبسایتهای نامرتبط یا لینک فارمها استفاده میکردند، تنبیه شدند.
متن پنهان، ریدایرکتها و Cloaking
بهروزرسانی Jagger تنها بر محتوای کپیشده یا بکلینکهای اسپم تمرکز نداشت، بلکه سایتهایی که از تکنیکهای سئوی سیاه استفاده میکردند نیز هدف قرار گرفتند. در آن زمان، Cloaking به یک روش محبوب میان اسپمرها تبدیل شده بود. این تکنیک شامل ارائه محتوایی متفاوت به موتورهای جستجو و کاربران بود. الگوریتم Jagger سایتهایی را که از CSS برای پنهان کردن متن یا استفاده از ریدایرکتهای متای تأخیری برای فریب کاربران و موتورهای جستجو استفاده میکردند، تنبیه کرد. همچنین وبسایتهایی که بهطور غیرمنطقی از CSS برای مخفی کردن کلمات کلیدی بهره میبردند، بهشدت آسیب دیدند و رتبهبندی آنها کاهش یافت.
واکنش کاربران به معرفی الگوریتم Jagger از سوی گوگل
معرفی الگوریتم Jagger در سال 2005 واکنشهای متنوعی را در بین کاربران و جامعه سئو ایجاد کرد. مدیران وبسایتها با تغییرات چشمگیری در نتایج موتور جستجو (SERP) مواجه شدند و این موضوع باعث بحثهای داغی در انجمنها و وبلاگهای مرتبط با سئو شد. همانند بسیاری از بهروزرسانیهای دیگر گوگل، برخی کاربران با شعارهایی مانند «گوگل بد است» یا «گوگل شیطان است» اعتراض خود را نسبت به تغییرات ایجاد شده ابراز کردند.
دو موضوع کلیدی پس از معرفی Jagger
1. حمایت گوگل از سایتهای قدیمیتر
یکی از مباحث پرطرفدار در میان مدیران وبسایتها این بود که گوگل به سایتهای قدیمیتر یا برندهای شناختهشده بیشتر اهمیت میدهد. در همین راستا، انتشار بهروزرسانی Jagger این موضوع را دوباره برجسته کرد.
در سال 2005، گوگل حق اختراعی را به ثبت رساند که نشان میداد:
«دامنههای معتبر معمولاً برای چندین سال به صورت پیشپرداخت ثبت میشوند، در حالی که دامنههای نامعتبر یا درگاهی (Gateway) اغلب برای کمتر از یک سال استفاده میشوند. از این رو، تاریخ انقضای دامنه میتواند معیاری برای پیشبینی مشروعیت آن باشد.»
هرچند که اهمیت این عامل بعداً توسط مت کاتز در سال 2010 و سایر متخصصان سئو کمرنگ شد، اما در آن زمان بسیاری بر این باور بودند که گوگل به واسطه این رویکرد از سایتهای معتبرتر و قدیمیتر حمایت میکند.
2. افزایش درآمد گوگل از AdWords
یکی دیگر از موضوعات مطرحشده، ارتباط بهروزرسانی Jagger با افزایش هزینههای تبلیغات گوگل (AdWords) بود. گوگل بهروزرسانیهای بزرگ خود را اغلب در اواخر سال میلادی و نزدیک به فصل تعطیلات منتشر میکرد. این موضوع باعث میشد سایتها در یکی از پربازدیدترین و پر درآمدترین زمانهای سال، رتبههای خود را از دست بدهند.
بهعنوان مثال، بهروزرسانی فلوریدا در نوامبر 2003 ضربه بزرگی به بسیاری از کسبوکارها وارد کرد. مشابه همین اتفاق در سال 2005 نیز رخ داد، و بسیاری از سایتها برای جبران کاهش ترافیک ارگانیک خود، مجبور به استفاده از تبلیغات پولی گوگل شدند. در نتیجه، این مسئله به افزایش درآمد گوگل از طریق سیستم تبلیغاتی AdWords کمک کرد.
شرایط رقابتی در سال 2005
در آن زمان، گوگل هنوز مانند امروز در جایگاه بیرقیب قرار نداشت و موتورهای جستجویی مانند MSN بهعنوان جایگزینهایی قابل قبول مطرح بودند. این موضوع رقابت بیشتری میان موتورهای جستجو ایجاد کرده بود و گوگل مجبور بود با تاکتیکهای مختلف، از جمله بهبود الگوریتمها و تقویت سیستم تبلیغاتی، جایگاه خود را تثبیت کند.
رفع جریمه الگوریتم Jagger گوگل
الگوریتم Jagger که در سال 2005 معرفی شد، سایتهای زیادی را به دلیل لینکسازی غیرطبیعی، محتوای تکراری، و مشکلات فنی هدف قرار داد. رفع جریمههای این الگوریتم نیازمند اقدامات جامع در بهبود سئوی داخلی و خارجی بود. در ادامه به روشهای اصلی بازیابی و بهبود رتبه سایت پس از تأثیر این الگوریتم میپردازیم:
۱. بهینهسازی متا دیتا و عناوین صفحه
- حذف عناوین تکراری: تمامی صفحات سایت باید دارای عنوانی منحصربهفرد و متناسب با محتوای خود باشند.
- مختصر و دقیق کردن عناوین متا: از توضیحات متا کوتاه، واضح و مرتبط با صفحه استفاده کنید.
۲. بهبود معماری وبسایت و URL
- ساختار URLها را بهینه کنید تا کوتاه، واضح و کاربرپسند باشند.
- حل مشکلات داپلیکیت URL:
- مشکلات مربوط به نسخههای دارای “www” و بدون “www” را رفع کنید.
- اطمینان حاصل کنید که فقط یک نسخه از URL با یا بدون اسلش در انتها در دسترس است.
- برای حل این مشکلات از ریدایرکت 301 استفاده کنید.
۳. کاهش لینکهای داخلی غیرضروری
- لینکدهی داخلی را بهینه کنید و از لینکهای بیشازحد در پاورقی و سایدبار خودداری کنید.
- لینکهای داخلی را تنها به صفحات مرتبط و ضروری محدود کنید.
۴. تولید محتوای منحصربهفرد
- محتوای تکراری را حذف کنید: اگر محتوای کپی از دیگر سایتها یا صفحات خودتان دارید، آنها را بازنویسی یا حذف کنید.
- متن اختصاصی برای محصولات: به جای استفاده از توضیحات ارائهشده توسط تولیدکنندگان، توضیحات محصولات را با محتوای جدید و اختصاصی بنویسید.
۵. حذف بکلینکهای اسپم و بیکیفیت
- شناسایی و حذف لینکهای اسپم، مانند لینکهای حاصل از لینک فارمها یا خرید لینک.
- استفاده از ابزار Disavow گوگل: برای اعلام بیاعتباری لینکهای مضر.
- تمرکز روی کسب بکلینکهای طبیعی و معتبر از سایتهای مرتبط.
۶. افزایش کیفیت کلی سایت
- زمان بارگذاری سایت را کاهش دهید.
- از طراحی ریسپانسیو استفاده کنید تا سایت در همه دستگاهها قابل استفاده باشد.
- نقشه سایت (Sitemap) و فایل robots.txt را بهینه کنید تا خزش گوگل بهتر انجام شود.
جمعبندی و نکات پایانی
الگوریتم Jagger نقشی اساسی در شکلگیری اصول مدرن سئو داشت. این بهروزرسانی گوگل نهتنها بر روی لینکسازی غیرطبیعی تمرکز کرد، بلکه بسیاری از مشکلات فنی و محتوایی وبسایتها را برجسته ساخت.
نکته کلیدی:
الگوریتم Jagger را میتوان نقطه شروع توسعه الگوریتمهای بکلینک گوگل دانست که بعدها به الگوریتم پنگوئن تبدیل شد.
چالش اصلی:
در آن زمان رقابت بین موتورهای جستجو مانند یاهو و MSN بسیار بالا بود و گوگل تنها 37 درصد از بازار ایالات متحده را در اختیار داشت. این الگوریتمها نهتنها برای بهبود تجربه کاربر بلکه برای افزایش سهم بازار گوگل طراحی شدند.
برای جلوگیری از جریمه شدن توسط الگوریتمهای مدرن گوگل، پیروی از اصول سئو کلاه سفید مانند تولید محتوای باکیفیت، لینکسازی طبیعی، و بهینهسازی فنی سایت ضروری است.
نوشته های مرتبط