آپدیت الگوریتم های گوگل از 2011 تا 2024

به روز رسانی الگوریتم های گوگل از 2011 تا 2024 را در این مقاله آموزش سئو بررسی خواهیم نمود.

گوگل تقریبا هر روز در الگوریتم های رتبه بندی خودش تغییرات ایجاد می کند. گاهی ما متوجه این تغییرات می شویم و گاهی متوجه نمی شویم. بعضی از آن ها گاهی ناشناخته باقی می مانند و بعضی دیگر از آن ها باعث می شوند به کلی SERP ها تغییر کنند. در نتیجه، این مقاله مثل یک برگه تقلب است تا بتوانیم مهم ترین به روز رسانی الگوریتم های گوگل در سال های اخیر را بشناسیم. همچنین در این مقاله توصیه هایی به شما می کنیم تا با استفاده از آن ها بتوانید سایت خودتان را مطابق با این به روز رسانی ها، بهینه سازی کنید.

الگوریتم پاندای گوگل

اولین بار، در سال 2011 بود که گوگل اولین آپدیت الگوریتم پاندای خودش را منتشر کرد، که هدف آن بهبود کیفیت نتایج جستجو با کاهش رتبه محتوای کم کیفیت بود. این به روز رسانی پاندا، شروع جنگ گوگل علیه سئو کلاه خاکستری بود. به مدت 5 سال، این الگوریتم، به صورت بخشی مجزا از یک الگوریتم جستجوی گسترده تر بود اما در سال 2016، پاندا به یکی از الگوریتم های اصلی گوگل تبدیل شد. همانطور که خود گوگل گفته است، این الگوریتم به این دلیل تبدیل به یک الگوریتم مجزا و اصلی شده است که انتظار نمی رود موتور جستجو بخواهد تغییر گسترده دیگری در آن ایجاد کند.

نقاط تمرکز الگوریتم پاندا:

  • محتوای تکراری
  • تکرار کلمات کلیدی به صورت بی هدف
  • محتوای ضعیف
  • اسپم های تولید شده توسط کاربران
  • محتوای نامرتبط

بهترین کار برای تطابق با الگوریتم پاندا در گوگل:

اولین چیزی که شما باید به آن توجه کنید، این است که محتوای تکراری داخل سایت نداشته باشید. پیشنهاد من این است که شما به صورت منظم سایت خودتان را ارزیابی کنید تا مطمئن شوید که هیچ موضوع تکراری در سایت شما وجود ندارد.

مطلب تکراری با سایت های دیگر نیز یکی از مواردی است که باعث می شود پاندا علیه شما فعالیت کند، به همین دلیل بهتر است صفحاتی که احتمال می دهید از مطالب شما کپی کرده باشند را هم بررسی کنید. اما بعضی از کسب و کارها وجود دارند (مانند فروشگاه های آنلاین با صفحه محصولات متنوع) که نمی توانند همیشه محتوای 100% منحصر به فرد داشته باشند. در این صورت، سعی کنید محتوای اصیل تری را منتشر کنید و توصیفات محصولات خودتان را تا حد ممکن برجسته و عالی بنویسید. یکی دیگر از راه حل های خوب این است که اجازه دهید مشتری های شما با استفاده از تایید سفارش، مرور محصولات، نظرات و غیره، در رابطه با محصول صحبت کنند.

موضوع بعدی که باید به آن توجه کنید، بررسی صفحه هایی با محتوای ضعیف و پر کردن این صفحات با محتوای قوی، اصیل و مفید می باشد.

ارزیابی کردن سایت خودتان از نظر تکرار بی فایده کلمات کلیدی نیز یکی از مهم ترین فعالیت هایی است که باید انجام دهید تا پاندا سایت شما را جریمه نکند. در نتیجه، باید کلمات کلیدی در تیتر صفحه، متا تگ توضیحات سئو، بدنه و تگ های H1 را بررسی کنید تا مطمئن شوید که در هیچ کدام از این قسمت ها بیش از حد از کلمات کلیدی استفاده نکرده باشید.

الگوریتم پنگوئن گوگل

به روز رسانی پنگوئن در سال 2012 منتشر شد و دومین گام گوگل برای مقابله با اسپم ها بود. به صورت خلاصه، هدف اصلی این الگوریتم کاهش رتبه سایت هایی بود که لینک های آن ها به نظر دستکاری شده اند (هنوز هم هدف این به روز رسانی همین است). درست مانند پاندا، پنگوئن نیز از سال 2016 تبدیل به یکی از الگوریتم های اصلی گوگل شده است. بنابراین، این الگوریتم حالا به صورت پیوسته مشخصات بک لینک های یک سایت را بررسی می کند تا در صورت وجود هرگونه لینک اسپم، آن ها را شناسایی کند.

نقاط تمرکز الگوریتم پنگوئن

  • لینک های ایجاد شده از سایت های اسپمی
  • لینک از سایت هایی که از نظر موضوعی، نامربوط هستند.
  • لینک های پولی
  • لینک هایی که انکر تکست های آن ها بیش از حد بهینه سازی شده است.

بهترین کار برای تطابق با الگوريتم پنگوئن

اولین چیزی که شما باید در این قسمت انجام دهید، شناسایی لینک های مضر می باشد. باید به این نکته اشاره کنیم که نرم افزار های مختلف از روش ها و فرمول های مختلف استفاده می کنند تا ضرر لینک های خاصی را مشخص کنند. خوشبختانه، معیار SpyGlass’s Penalty Risk سئو، از فرمول هایی استفاده می کند که الگوریتم پنگوئن هم از آن ها استفاده می کند.

بعد از این که شما موارد اسپمر را شناسایی کردید، باید تلاش کنید تا لینک های اسپمی موجود در مجموعه لینک های خودتان را با تماس با وبمستر سایت هایی که به شما لینک داده اند، حذف کنید. اما وقتی که شما با هزاران لینک مضر سروکار داشته باشید و یا پاسخی از وبمستر ها دریافت نکنید، بهترین گزینه این است که با استفاده از ابزار disavow گوگل، این لینک ها را disavow کنید.

یک موضوع دیگر که من حتما پیشنهاد می کنم، این است که همیشه رشد مجموعه لینک های خودتان را بررسی کنید. موضوع این است که هر افزایش غیر معمول در مجموعه لینک های شما ممکن است نشانه ای باشد که یک نفر سایت شما را اسپم کرده است. در بیشتر مواقع شما به خاطر یک یا دو لینک اسپم جریمه نمی شوید، اما جریان ورودی ناگهانی از بک لینک های سمی می تواند برای شما مشکل ایجاد کند. همچنین به صورت کلی، همیشه باید لینک هایی که اخیرا به سایت شما اضافه شده اند را بررسی کنید.

الگوریتم EMD گوگل

اپدیت الگوریتم Exact Match Domain در سال 2012 توسط گوگل منتشر شد و دقیقا، کاربرد این الگوریتم از نام آن مشخص است. هدف انتشار این به روز رسانی، هدف گرفتن دامنه های تطابق دقیق با محتوای کم کیفیت و ضعیف بود. این کار به این دلیل انجام شد که در گذشته سئو کار ها با خرید دامنه هایی که عبارات کلیدی دقیقی در آن ها وجود داشت و ایجاد سایت هایی بسیار کم کیفیت بر روی این دامنه ها، می توانستند در نتایج موتور های جستجو، بسیار موفق شوند.

نقطه تمرکز الگوریتم EMD

  • دامنه هایی با تطبیق دقیق و محتوای ضعیف

بهترین کار برای تطابق با الگوریتم emd

اصلا ایرادی ندارد که شما از دامنه هایی با تطبیق دقیق استفاده کنید. تنها شرطی که شما باید رعایت کنید تا دچار مشکل نشوید، این است که در وبسایت خودتان محتوای با کیفیت ارائه کنید. همچنین من اصلا پیشنهاد نمی کنم که شما صفحه های کم کیفیت را حذف کنید، بلکه باید تلاش کنید تا صفحه های موجود را بهبود دهید و محتوای اصیل و با کیفیت در آن قرار دهید.

الگوریتم Pirate گوگل

شما احتمالا هنوز روزهایی را به یاد دارید که سایت هایی که محتوای آن ها از سایت های دیگر سرقت شده است، در نتایج جستجو رتبه بالایی می گرفتند و در همه جای اینترنت، شما می دیدید که محتوا سرقت می شود. البته، این موضوع باید متوقف می شد و گوگل نیز با به روز رسانی الگوریتم با نام Pirate که در سال 2012 منتشر شد به این موضوع واکنش نشان داد تا وبسایت هایی که تا حد زیادی از قوانین کپی رایت تخطی کرده بودند، جریمه شوند. لطفا در نظر داشته باشید که اصلا این به روز رسانی نمی تواند باعث شود که سایت شما از ایندکس حذف شود، بلکه تنها باعث می شود که سایت شما رتبه بندی کمتری دریافت کند.

نقاط تمرکز اصلی الگوریتم Pirate

  • تخطی از قانون حق نشر (کپی رایت)

بهترین کار برای تطابق با الگوریتم Pirate

در این زمینه خیلی موضوع پیچیده ای مطرح نیست. بهترین کاری که شما می توانید بکنید، این است که محتوای اصیل منتشر کنید، نه این که بدون اجازه مالک یک محتوا آن را بر روی سایت خودتان کپی کنید.

همانطور هم که احتمالا می دانید، جنگ و مقابله با این سرقت محتوا هنوز تمام نشده است. در نتیجه اگر متوجه شدید که رقیب شما از محتوای سرقت شده استفاده می کند، شما باید به گوگل کمک کنید و یک درخواست رسمی با استفاده از ابزار Removing Content From Google به گوگل بدهید. بعد از آن، گوگل تقاضای شما را با کمک تیم حقوقی گوگل بررسی می کند و سپس آن ها می توانند بر روی محتوای ایندکس شده یا سایت ها، تنظیمات مورد نیاز را اعمال کنند.

الگوریتم مرغ مگس خوار (Hummingbird) و الگوریتم رنک برین گوگل

از سال 2013، گوگل دوره ای برای درک بهتر هدف جستجوی کاربران را شروع کرده است. در نتیجه، گوگل الگوریتم Hummingbird را در همان سال و سپس در سال 2015، الگوریتم RankBrain را منتشر کرد. این دو به روز رسانی، یکدیگر را کاملا دقیق تکمیل می کنند زیرا عملکرد هر دوی این الگوریتم ها، شناسایی و تفسیر هدف جستجوی پشت عبارات جستجو شده توسط کاربران می باشد. اما، این دو الگوریتم اندکی با یکدیگر تفاوت دارند.

الگوریتم Hummingbird یا الگوریتم مرغ مگس خوار گوگل، یکی از الگوریتم های به روز رسانی اصلی گوگل است که مرتبط با درک عبارات جستجو (به خصوص، عبارات طولانی و محاوره ای و نه کلمات کلیدی منفرد) می باشد و تلاش دارد نتایج جستجویی را در اختیار کاربر قرار دهد که مطابق با هدف جستجوی او می باشد.

همچنین الگوریتم rankbrain گوگل یک سیستم یادگیری ماشینی است که به Hummingbird اضافه شده است. بر اساس داده های تاریخی بر اساس رفتار قبلی کاربران، این سیستم یادگیری ماشینی به گوگل کمک می کند تا عبارات جستجو شده نا آشنا، منحصر به فرد و اصیل را پردازش کنند.

نکات تمرکز الگوریتم های مرغ مگس خوار و رنک برین

  • کلمات کلیدی طولانی
  • عبارات جستجوی نا آشنا
  • زبان طبیعی
  • تجربه کاربری

بهترین کار برای تطابق با این الگوریتم ها

این ایده خوبی است که شما جستجوی کلمات کلیدی خودتان را توسعه دهید و توجه ویژه ای به جستجوهای مربوطه و کلمات هم معنی داشته باشید تا بتوانید تنوع خوبی در محتوای خودتان ایجاد کنید. چه این موضوع مطابق میل شما باشد چه نباشد، دیگر گذشت آن روز هایی که شما می توانستید تنها با اتکا بر روی کلمات کلیدی کوتاه که از Google AdWords به دست آمده بود کار خودتان را انجام دهید، گذشته است.

مهم تر از آن، حالا که توانایی موتور های جستجو برای پردازش زبان طبیعی بهتر شده است، استفاده از عبارات غیر طبیعی به خصوص در تیتر محتوا و متا تگ توضیحات تبدیل به یک مشکل شده است.

شما همچنین می توانید از نظر ارتباطات و جامع بودن محتوا، با استفاده از تحلیل های رقابتی، محتوای خودتان را بهبود دهید. ابزار بسیار متنوعی وجود دارد که تحلیل های  TF-IDF را در اختیار شما قرار می دهند. این تحلیل ها می تواند عبارات و مفاهیم مرتبط با موضوع مد نظر شما را که مورد استفاده رقبای قوی شما هستند، در اختیار شما قرار دهد.

علاوه بر تمام موارد مطرح شده در قسمت بالا، فراموش نکنید که شما باید همیشه تلاش کنید تا تجربه کاربری را در سایت خودتان بهبود بخشید. این یک فعالیت برد – برد می باشد که هم باعث می شود کاربران شما تجربه بهتری داشته باشند و همچنین باعث می شود که رتبه بندی شما در صفحه نتایج جستجو نیز بهبود پیدا کند. شما همیشه باید در Google Analytics، معیار های تجربه کاربری را در نظر داشته باشید، به خصوص معیار های نرخ پرش و مدت زمان ماندن کاربر در صفحه.

الگوریتم pigeon و الگوریتم Possum

هر دو الگوریتم Pigeon و Possum، به هدف ارزیابی سئو محلی هستند و به این منظور ایجاد شده اند که بتوانند کیفیت نتایج جستجوی محلی را بهینه کنند. به روز رسانی Pigeon در سال 2014 ارائه شد و به این منظور طراحی شد تا بتوان الگوریتم جستجوی محلی گوگل، به الگوریتم اصلی نزدیک تر شود. مهم تر از آن، در زمان رتبه بندی نتایج جستجو با استفاده از این الگوریتم، عوامل مکان و فاصله نیز در نظر گرفته شد. همین موضوع باعث شد که سایت هایی با آدرس محلی، رتبه بندی بهتری دریافت کنند و همچنین ارتباط بیشتری بین این الگوریتم و جستجوی Google Web و Google Map ایجاد شود.

دو سال بعد، زمانی که الگوریتم Possum منتشر شد، گوگل نتایج جستجوی متنوع تری را مبتنی بر مکان فیزیکی جستجو کننده، ارائه کرد. در اصل، هر چه شما به آدرس یک کسب و کار نزدیک تر باشید، احتمال این که شما، سایت این کسب و کار را در نتایج جستجو ببینید، بیشتر می شود. حتی زمانی که تفاوت کمی در عبارات جستجو شده وجود داشته باشد، نتایج متفاوتی ایجاد می شود. باید به این نکته اشاره کرد که الگوریتم Possum همچنین به نوعی باعث شد که کسب و کار هایی که خارج از ناحیه شهری فیزیکی قرار داشتند نیز از نظر رتبه بندی بهبود پیدا کنند.

نقاط تمرکز اصلی

  • نمایش وبسایت های معتبر و بهینه در نتایج جستجوی محلی
  • نشان دادن نتایج جستجویی که به مکان فیزیکی جستجو کننده نزدیک تر هستند
۰ ۰
تا كنون نظري ثبت نشده است
امکان ارسال نظر برای مطلب فوق وجود ندارد