سئو و بهینه سازی

لیست کامل الگوریتم های گوگل – الگوریتم های گوگل در سئو

آشنایی با الگوریتم گوگل

الگوریتم‌های گوگل سیستم‌های پیچیده‌ای هستند که برای پیدا کردن و رتبه‌بندی مرتبط‌ترین صفحات برای عبارت جستجوشده کمک می‌کنند. در واقع کل سیستم رتبه‌بندی گوگل از چند الگوریتم ساخته‌شده که هرکدام چند فاکتور مختلف درون یا برون صفحه را در نظر می‌گیرند.

مهم‌ترین الگوریتم‌های گوگل که باید بدانید (باغ وحش مجازی گوگل)

به طور کلی به‌روزرسانی‌های گوگل به دو دسته به‌روزرسانی‌های کوچک و به‌روزرسانی‌های بزرگ تقسیم می‌شوند. این به‌روزرسانی‌های کوچک گاهی چند بار در روز هم رخ می‌دهند اما اثر آن‌ها به اندازه‌ای نیست که ما متوجه تغییر خاصی شویم. از طرف دیگر الگوریتم‌های بزرگ موتور جستجوی گوگل سالانه رخ می‌دهد و به قدری سر و صدا می‌کند که حتی گوگل هم آپدیت جدید را تأیید و نامی ‌را برای آن انتخاب می‌کند.
از آنجا که اکثر اسامی‌الگوریتم‌های ابتدایی گوگل از روی حیوانات گرفته شده بودند بسیاری آن را باغ وحش مجازی گوگل نامیدند.

الگوریتم‌های گوگل و جریمه‌های گوگل

بسیاری از الگوریتم‌هایی که از سمت گوگل معرفی می‌گردد تاثیر مستقیمی ‌روی وضعیت ترافیک و آمار سایت شما دارند. البته نمی‌توان به قطعیت گفت که تمام این الگوریتم‌ها به طور مستقیم با سئوی سایت شما در ارتباط هستند؛ اما بهتر است به عنوان یک متخصص سئو همواره از آپدیت‌های جدید الگوریتم‌های گوگل باخبر باشید. در ادامه فهرست الگوریتم‌های گوگل را با هم می‌بینیم و درباره بعضی از آنها توضیحاتی را خواهیم خواند.

  1. الگوریتم پیج رنک
  2. الگوریتم رقص گوگل
  3. سندباکس گوگل
  4. الگوریتم هیلتاپ
  5. الگوریتم کافئین
  6. الگوریتم پاندا
  7. الگوریتم تازگی محتوا
  8. الگوریتم ونیز
  9. الگوریتم پنگوئن
  10. الگوریتم دزد دریایی
  11. الگوریتم EMD
  12. الگوریتم Page Layout
  13. الگوریتم گورخر
  14. الگوریتم مرغ مگس خوار
  15. الگوریتم Payday Loan
  16. الگوریتم کبوتر
  17. الگوریتم موبایل گدون
  18. الگوریتم رنک برین
  19. الگوریتم موش کور
  20. الگوریتم فِرد
  21. الگوریتم مدیک یا طبی
  22. الگوریتم برت
  23. الگوریتم موبایل فرست ایندکس
  24. الگوریتم E-A-T
  25. الگوریتم MUM

قبل از اینکه به سراغ بررسی الگوریتم‌های گوگل برویم بد نیست نکته‌ای را بدانید. بسیاری از متخصصان سئو زمانی که می‌بینند ترافیک وب سایت به طرز غیرقابل پیش بینی کننده‌ای کم شده است، اول از همه به سراغ مسائلی چون اسپم بودن، بررسی بک لینک‌ها یا سئوی داخلی سایت می‌روند.

در حالی که یکی از مواردی که ممکن است در نظر نگیرند آپدیت‌هایی است که گوگل برای الگوریتم‌های سئوی خود می‌دهد. در ادامه به بررسی الگوریتم گوگل براساس تاریخ میپردازیم

الگوریتم پیج رنک (Google PageRank Algorithm) – سال ۱۹۹۸

در اواخر قرن بیستم، گوگل تصمیم گرفت الگوریتم جدیدی را معرفی کند که توسط آن امکان رتبه‌بندی سایت‌ها وجود داشته باشد. پیج رنک جزو اولین الگوریتم‌های گوگل است.
در ابتدا این الگوریتم لینک‌هایی که به هر دامنه یا صفحه داده می‌شد را بررسی می‌کرد و بر همین اساس هر سایتی که لینک‌های بیشتر و معتبرتری داشت، در رتبه‌های برتر قرار می‌گرفت. رفته‌رفته گوگل الگوریتم پیج رنک را با هدف جلوگیری از ساخت بک لینک‌های انبوه و پولی توسعه داد.

الگوریتم رقص گوگل (Google Dance) – سال ۲۰۰۴

گوگل وب سایت‌ها و صفحات جدید را چند بار در صفحه نتایج جا به جا می‌کند تا رفتار کاربران را نسبت به آن بسنجد و بتواند نسبت به تعداد کلیک‌ها، مدت زمانی که کاربران در صفحه می‌مانند و به طور کلی رفتار کاربران، رتبه مناسبی برای صفحه جدید در نظر بگیرد.

گاهی هم ممکن است رقص گوگل برای صفحه‌ای که تازه ایجاد نشده اتفاق بیفتد. علت آن می‌تواند این باشد که گوگل به تازگی متوجه این صفحه شده و قصد دارد یک شانس برای گرفتن رتبه بهتر به این صفحه بدهد. اگر زمانی که این صفحه در رقص گوگل در رتبه‌های اول و دوم قرار گرفت توانست کاربران را به خود جذب کند قطعاً تأثیر خوبی در رتبه‌اش خواهد دید.

سندباکس گوگل (Google Sandbox) – سال ۲۰۰۴

اگر سایت شما تازه تاسیس باشد ممکن است در سندباکس گوگل قرار بگیرید. هدف اصلی گوگل سندباکس این است که جلوی گرفتن رتبه مناسب صفحات شما را در همان ابتدای کار که صفحات ایندکس میشوند بگیرد. این اتفاق به این دلیل می‌افتد که ممکن است محتوای صفحات شما به اندازه دیگر صفحات موجود در SERP مناسب و مرتبط نباشد و این که ممکن است اسپم باشد. در نتیجه مدتی آن را در سندباکس قرار میدهد تا از صحت آن اطمینان حاصل کند. (این ویژگی گوگل هیچ‌گاه به صورت رسمی‌تایید نشده است اما بسیاری از متخصصان سئو بر این باورند که این الگوریتم وجود دارد و بر روی نتایج رتبه‌بندی تاثیرش را می‌گذارد.)

الگوریتم تپه (Hilltop Algorithm) – سال ۲۰۰۴

یکی از قدیمی‌ترین الگوریتم‌هایی که توسط گوگل ارائه شده، الگوریتم هیلتاپ یا تپه است. سال ۲۰۰۳ ایده هیلتاپ مطرح شد و در سال ۲۰۰۴ به صورت رسمی‌از انتشار آن خبر دادند. هدف این الگوریتم شناختن صفحات معتبر در موتورهای جستجو بود. در آن زمان وقتی کاربر کلمه‌ای را سرچ می‌کرد، ممکن بود آن کلمه نقطه اشتراک زیادی با موضوعات مختلف داشته باشد و گوگل نمی‌توانست صفحه معتبر و درستی را در اختیار کاربر قرار دهد.
این الگوریتم به وجود آمد تا صفحات تخصصی و دارای اعتبار را شناسایی کند و هنوز هم در کنار الگوریتم Page Rank، نقش مهمی ‌را در رتبه‌بندی سایت‌ها ایفا می‌کنند.

الگوریتم کافئین (Caffeine Algorithm) – سال ۲۰۱۰

در سال ۲۰۰۹، گوگل اعلام کرد که الگوریتم کافئین یکی از مهم‌ترین الگوریتم‌های تاریخ موتورهای جستجو خواهد شد. چندین ماه طول کشید تا گوگل آن را به صورت کامل آماده کند و در نهایت سال ۲۰۱۰ به شکل رسمی‌روانه بازار شد.
کار الگوریتم کافئین در واقع سیستم نوین ایندکس کردن سایت‌ها بود. قبل از آن ربات‌های گوگل تنها به محتواهای تازه و جدید اهمیت می‌دادند و برای ایندکس دوباره مطالب گذشته، سایت‌ها مشکل داشتند. الگوریتم کافئین به صورت مستقیم روی رتبه سایت‌ها تاثیری نگذاشت؛ اما با تغییری که ایجاد کرد باعث شد سایت‌هایی که محتواهای قدیمی‌خود را بیشتر به‌روزرسانی می‌کنند، در رتبه‌های بهتری قرار بگیرند.

الگوریتم پاندا گوگل (Panda Algorithm) – سال ۲۰۱۱

الگوریتم پاندا در سال ۲۰۱۱ راه‌اندازی شد. هر چند گوگل سال‌ها قبل از آن نیز به ارائه خدمات مشغول بود، اما پاندا اولین الگوریتمی ‌بود که در دنیای مدرن سئو به صورت رسمی ‌معرفی شد. این الگوریتم در سال ۲۰۱۶ به الگوریتم هسته پیوست و در نتیجه دائماً در حال فعالیت و بررسی سایت‌هاست. هدف از این الگوریتم پایین آوردن رتبه سایت‌هایی است که محتوای بی‌کیفیت دارند. به طور کلی تمام الگوریتم‌های گوگل در تلاش هستند که سایت‌های اسپم را شناسایی و حذف کنند تا نتایج جستجوی گوگل هرچه بیشتر کارآمد شود.

بیشترین مواردی که می‌تواند به عنوان پنالتی از طریق این الگوریتم اعلام شود، محتوای تکراری یا سرقت ادبی است؛ سعی کنید محتواهای منحصربه‌فرد و اورجینال بنویسید. تمرکز الگوریتم پاندا بیشتر بر فاکتورهای درون صفحه (on-page) است و تطابق عبارت سرچ شده توسط کاربران را با موضوع کلی صفحه می‌سنجد. این الگوریتم گوگل به دو مسئله بسیار حساس است و با آن‌ها برخورد می‌کند:

  • سایت‌هایی که فقط با هدف لینک‌دهی به سایت‌های دیگر به وجود آمده‌اند. (Affiliate sites)
  • سایت‌هایی که محتوای بسیار کوتاهی دارند.

الگوریتم پاندا همچنین محتواهای کم حجم را شناسایی می‌کند. بهتر است اگر صفحه‌ای محتوای کم حجمی‌ دارد چه از لحاظ تعداد کلمات و چه از لحاظ لینک‌هایی که از آن به خارج داده شده است، آن را اصلاح یا حذف کنید. یکی دیگر از مشکلاتی که می‌تواند در محتواهای شما باعث شود که توسط گوگل پنالتی شوید بحث تکرار بیش از اندازه کلمه کلیدی است. این مورد به تنهایی می‌تواند سایت شما را اسپم کند و رتبه شما را در نتایج گوگل کاهش دهد.

الگوریتم تازگی محتوا (Freshness Algorithm) – سال ۲۰۱۱

در سال ۲۰۱۱ گوگل الگوریتم رتبه‌بندی را طوری تغییر داد تا محتوای تازه‌تر در بالای نتایج قرار بگیرد. به این ترتیب اگر موضوعی در یک دوره داغ می‌شد یا یک رویدادی در حال اجرا بود کاربران راحت‌تر می‌توانستند به مطالب مربوطه دست پیدا کنند. الگوریتم تازگی محتوا بر ۳۵ درصد از جستجوها اثر گذاشت.

الگوریتم ونیز (Venice Algorithm) – سال 2012

از میان الگوریتم‌های موتور جستجوی گوگل، الگوریتم ونیز از آن جهت که مربوط به جستجوهای محلی می‌شود، آپدیت قابل توجهی محسوب می‌شود. در این الگوریتم که در سال 2012 به راه افتاد، IP یا موقعیت جغرافیایی که برای سایت تعریف شده باشد نیز در نتایج جستجوی گوگل دخیل شدند.

الگوریتم دزد دریایی (Pirate Algorithm) – سال ۲۰۱۲

این یکی از آن الگوریتم‌های گوگل است که کاملاً با اسمش هم‌خوانی دارد. گوگل با ایجاد این به‌روزرسانی در سال ۲۰۱۲ سعی داشت تا با کپی‌برداری از مطالب سایت‌های دیگر و به نوعی دزدی ادبی مقابله کند. به این ترتیب برای سایت‌هایی که محتوای تکراری منتشر می‌کردند رتبه منفی در نظر گرفت.

خصوصاً سایت‌هایی که در زمینه دانلود کتاب، فیلم یا موزیک بدون کپی رایت فعالیت می‌کنند، تحت تاثیر الگوریتم دزد دریایی خواهند بود. البته هنوز میزان دقت و قدرت این الگوریتم در حدی نیست که به دنبال تک تک وب سایت‌های جدید که محتوای دزدی دارند بیفتد. با توجه به این که تعداد این سایت‌ها هم هر روز بیشتر می‌شود. اما برای کسانی که می‌خواهند روی سایت خود سرمایه‌گذاری کنند توجه به این نکته اهمیت زیادی دارد تا مطمئن شوید دچار پنالتی گوگل نخواهید شد.

الگوریتم EMD (Exact Match Domain) – سال ۲۰۱۲

در سال 2012، برای اولین بار سخن از الگوریتمی‌به نام Exact Match Domain به میان آمد. این الگوریتم در طی این 10 سال بارها و بارها آپدیت شده و هدف اصلی آن از بین بردن سایت‌هایی است که به‌صورت اسپمی‌فعالیت می‌کنند و محتوای ضعیفی ارائه می‌دهند.
سایت‌هایی که محتوای بی‌کیفیت تولید می‌کنند و قادر نیستند که نیاز مخاطبان خود را برطرف کنند و ارزشی برای آن‌ها خلق نمی‌کنند، بیشتر از سایر سایت‌ها در معرض درگیری با این الگوریتم هستند.

الگوریتم پنگوئن (Penguin Algorithm) – ۲۰۱۲

الگوریتم پنگوئن توسط گوگل معرفی شده تا کیفیت لینک‌های داده‌شده به یک صفحه را مشخص کند. این الگوریتم که تاکنون چندین بار به‌روزرسانی شده، می‌تواند به بهبود رتبه‌بندی یک سایت کمک کند یا سایت‌های لینک‌های مخرب و پولی گرفته باشند، را با جریمه مواجه کند.

وقتی گوگل اعلام کرد که بک لینک‌ها می‌توانند در گرفتن رتبه اثر مثبتی داشته باشند، برخی سایت‌ها شروع به ساخت یا خرید بک لینک‌ مصنوعی کردند. گوگل برای مقابله با این اقدام الگوریتم پنگوئن را راه اندازی کرد. با این به‌روزرسانی موتور جستجوی گوگل، صفحاتی که در این زمینه متخلف شناخته شوند از صفحه نتایج جستجو حذف خواهند شد. در بهترین حالت نیز ممکن است دچار افت رتبه شوند.

آخرین به‌روزرسانی در سال ۲۰۱۶ رخ داد و طی آن قرار شد که بک لینک‌های هر صفحه را مورد بررسی قرار دهد و اگر تخلفی رخ داد، همان لندینگ را جریمه کند؛ اما از آن‌جایی که عملکرد تک تک صفحات روی رتبه سایت موثر است، افت رتبه یا جریمه یک یا چند صفحه می‌تواند تاثیرات منفی خود را روی کل سایت بگذارد.

الگوریتم پیج لی‌اوت (Page Layout Algorithm) – سال ۲۰۱۲

این الگوریتم در اوایل سال 2012 برای اولین بار ارائه شد. در نسخه اولیه‌ الگوریتم Page Layout که با نام «Top Heavy» هم شناخته می‌شد، گوگل قصد داشت جلوی سایت‌هایی که تعداد زیادی تبلیغ را در بالای صفحات سایت خود قرار می‌دهند را بگیرد. چند ماه بعد مدیر تیم وب اسپم گوگل خبر آپدیت جدید این الگوریتم را در توئیتر منتشر کرد و همچنین اعلام کرد که Page Layout توانسته روی 0.7 درصد از کوئری‌های انگلیسی تاثیر بگذارد.

در سال ۲۰۱۴ بار دیگر به‌روزرسانی برای آن درنظر گرفته شد تا عمکلرد بهتری را ارائه کند. در سال ۲۰۱۶ هم جان مولر در مصاحبه‌ای بیان کرد که این الگوریتم به صورت کامل اتوماتیک شده و از این به بعد بدون دخالت دست می‌تواند اثرگذار باشد.

بعد از به‌روزرسانی آخر، گوگل با تبلیغات در بالای صفحه تا زمانی که به تجربه کاربر آسیبی وارد نکند و بیش از حد نباشد، مشکلی نداشت. بنابراین سایت‌ها می‌توانستند در ابتدای صفحه خود تبلیغ قرار دهند. برای بهتر مشخص شدن چگونگی قرارگیری آن هم چندین تصویر را منتشر کرد.

همچنین کرالرهای گوگل به‌خوبی می‌توانند سایت‌هایی که تبلیغات آزاردهنده‌ای در ابتدای صفحه خود قرار داده‌اند را شناسایی کنند و به‌عنوان یک فاکتور منفی در رتبه‌بندی درنظر بگیرند. این الگوریتم کمک می‌کند تا کاربری که به‌عنوان مثال با موبایل وارد چنین سایت‌هایی می‌شود، ۴ الی ۵ بار برای رسیدن به محتوای موردنیاز خود اسکرول نکند و تجربه کاربری بهتری داشته باشد.

الگوریتم گورخر (Zebra Algorithm) – سال ۲۰۱۳

این الگوریتم در واقع آپدیتی برای الگوریتم هسته مرکزی است که در سال ۲۰۱۳ ایده ایجاد آن کلید خورد. یکی از نمایندگان گوگل با پدیده عجیبی مواجه شد؛ او در حالی که از نتایج جستجو بازدید می‌کرد، یک عینک‌‌فروشی را در رتبه اول گوگل دید که هیچ شباهتی به یک فروشگاه نداشت.

در ادامه به‌روزرسانی گورخر که بعدها با نام الگوریتم هم از آن یاد کردند، سایت‌های فروشگاهی که خدمات بی‌کیفیتی ارائه می‌کردند را مورد هدف قرار داد و اگر فروشگاه فاکتورهای لازم را نداشت، آن را از نتایج جستجو حذف می‌کرد یا به رتبه‌های پایین‌تر می‌فرستاد.

گورخر، هشدار بسیار مناسبی برای سایت‌های فروشگاهی بود که بدون توجه به کاربر و نیاز آن فعالیت می‌کردند و خدمات بی‌کیفیتی را ارائه می‌دادند.

الگوریتم مرغ مگس خوار (Hummingbird Algorithm) – سال ۲۰۱۳

یکی از بخش‌هایی که در الگوریتم‌های گوگل بهبود یافته است، درک عمیق تر از مفهوم کوئری‌هاست. در گذشته زمانی که یک کاربر عبارتی را در گوگل جستجو می‌کرد در نتایج گوگل ابتدا لینک‌هایی را نشان می‌داد که این عبارت کلیدی در آن وجود داشت. در حالی که توسط الگوریتم مرغ مگس خوار این فرایند تغییر کرده است و حالا بیشتر اهمیت دارد که نتیجه جستجو به موضوع و زمینه اصلی کوئری مرتبط باشد و الزاماً نیازی نیست که این کلمه کلیدی در داخل مقاله یا محتوای یک صفحه استفاده شده باشد به همین خاطر استفاده از مترادف‌ها بهینه تر شده و اهمیت بیشتری یافته است.

گوگل الگوریتم مرغ مگس خوار را برای سرچ صوتی (voice-search) پایه‌گذاری کرد و حالا هرچه زمان می‌گذرد و دستگاه‌ها بیشتر به تایپ صوتی مجهز می‌شوند اهمیت بیشتری می‌یابد. بر همین اساس، مرغ مگس خوار به کل عبارت سرچ شده توجه می‌کند نه تک‌تک کلمات. چراکه ممکن است به دلایلی چون اشتباهات تایپی و… عبارتی سرچ شود که در واقع منظور کاربر نباشد. اما گوگل به کمک این الگوریتم می‌تواند نتایجی را ارائه دهد که با وجود اشتباه تایپی با آنچه در ذهن کاربر بوده تطابق داشته باشد.

اگر قصد دارید نوشته‌هایتان را برای این الگوریتم گوگل سئو کنید باید علاوه بر کلیدواژه از مترادف‌های آن نیز استفاده کنید. متن باید به اندازه کافی روان نوشته شده باشد و خوانایی خوبی داشته باشد. اما نگران نباشید؛ چراکه مرغ مگس خوار کسی را به خاطر عدم رعایت این نکات جریمه نخواهد کرد. فقط با رعایت آن‌ها می‌توانید بهتر در نتایج جستجوی مرتبط با نوشته‌هایتان ظاهر شوید.

از آنجایی که برای گوگل محتواهای ارزشمند و اورجینال اهمیت دارد، بهتر است از این به بعد روی تحقیقات کلمه کلیدی خود بیشتر کار کنید. به این معنا که بهتر است به جای تکیه کردن روی عبارات کوتاه و کلمات کلیدی، بر روی تولید محتوای با ارزش که تمرکز کنید. هنوز هم در میان سایت‌ها نوشتن کلمات غیر طبیعی و نه چندان مفهوم در عنوان‌ها رایج است. اما به مرور زمان با هوشمندتر شدن موتورهای جستجو تمام این سایت‌ها به مشکل خواهد خورد چرا که مفهوم و کانسپت هم در نوشته‌ها اهمیت پیدا می‌کند.

الگوریتم Payday Loan – سال ۲۰۱۳

این الگوریتم برای مقابله با سایت‌های مستهجن و قمار ایجاد شد که به نوعی سایت‌های اسپم محسوب می‌شوند.

الگوریتم کبوتر (Pigeon Algorithm) – سال ۲۰۱۴

در این باغ وحش مجازی گوگل پرنده‌های دیگری هم حضور دارند و یکی از آن‌ها الگوریتم کبوتر است که یک سال بعد از مرغ مگس خوار و در ۲۰۱۴ متولد شد. این الگوریتم هم مانند الگوریتم ونیز بر سئوی محلی تمرکز دارد با این تفاوت که علاوه بر این که بر صفحات نتایج اثرگذار است بر نقشه گوگل نیز توجه ویژه‌ای داشته است و منجر به توانایی گوگل در ارائه نتایج نزدیک به کاربران شده است.

الگوریتم موبایل گدون (Mobilegeddon Algorithm) – سال ۲۰۱۵

صنعت سئو به‌روزرسانی موبایل گوگل را به موبایل گدون تفسیر کرد. تصور سئوکاران بر این بود که این آپدیت کل نتایج جستجو را دگرگون خواهد کرد. در سال 2015 که الگوریتم موبایل گدون معرفی شد 50 درصد از سرچ‌های گوگل از دستگاه‌های تلفن همراه انجام می‌شدند و این مسئله باعث شد تا گوگل برای سایت‌هایی که برای صفحه‌هایی به اندازه موبایل هم مناسب ساخته شده بودند، امتیاز خاصی در نظر بگیرد. این سایت‌ها را اصطلاحاً mobile friendly می‌نامیم. هدف این الگوریتم ارتباط راحت و دسترسی سریع کاربران با وب سایت شما از طریق پلتفرم موبایل است. موبایل فرندلی بودن فاکتوری است که در حال حاضر اهمیت بالاتری برای گوگل نسبت به نسخه دسکتاپ دارد.

گوگل برای تکمیل رضایت کاربران در این بخش به سرعت لود صفحه نیز پرداخت و در سال ۲۰۱۸ طی یک به‌روزرسانی دیگر سرعت لود صفحه را نیز جزء فاکتورهای رتبه‌بندی قرار داد. البته سرعت هم در سرچ موبایلی و هم در دسکتاپ اهمیت دارد.

پیشنهاد گوگل برای وب سایت‌ها استفاده از قالب‌های ریسپانسیو یا تکنولوژی صفحات موبایلی پرشتاب است. این تکنولوژی که با نام مخففAMP شناخته می‌شود، باعث می‌شود صفحات یک سایت در حالت موبایل با سرعت بسیار بالاتری نمایش داده شود. برای اینکه مطمئن شوید صفحات وب سایت شما موبایل فرندلی است، می‌توانید از ابزار گوگل موبایل فرندلی تست (Google Mobile friendly test) که به صورت کاملاً رایگان در اختیار افراد قرار می‌گیرد، برای بررسی وب سایت خود استفاده کنید.

الگوریتم رنک برین (Rank Brain Algorithm) – سال ۲۰۱۵

رنک برین در میان الگوریتم‌های جستجو اوج هنرنمایی گوگل است؛ چراکه گوگل در این به‌روزرسانی برای مدیریت عبارت‌های سرچ شده از ماشین یادگیری استفاده کرده است. به این ترتیب می‌تواند معنی کلماتی که نمی‌شناسد را حدس بزند، کلمات با معنای مشابه را پیدا کند و بر اساس آن نتایج مرتبط را ارائه دهد.این به‌روزرسانی در سال ۲۰۱۵ معرفی شد و به واسطه آن گوگل توانست نتایجی به مراتب مرتبط‌تر از قبل به کاربران ارائه دهد. یک سال بعد یعنی در مارس ۲۰۱۶ گوگل اعلام کرد که الگوریتم رنک برین یکی از سه الگوریتم مهم برای رتبه‌بندی سایت‌ها است.

مشکل اینجاست که شما نمی‌توانید به روش‌های سنتی همان طور که برای الگوریتم‌های دیگر سایتتان را سئو می‌کردید، برای الگوریتم رنک برین هم صفحات سایتتان را سئو کنید مگر اینکه محتوای باکیفیتی بنویسید.

الگوریتم موش کور (Possum Algorithm) – سال ۲۰۱۶

در سال ۲۰۱۶ گوگل بعد از الگوریتم‌های ونیز و کبوتر، از الگوریتم صاریغ برای سرچ محلی پرده‌برداری کرد تا یک پرده دیگر نیز در باغ وحش مجازی خود داشته باشد. بعد از این به‌روزرسانی دیده شدن در سرچ محلی برای برخی کسب و کارهایی که در رتبه‌بندی کلی گوگل نمی‌توانستند رتبه خوبی به دست بیاورند ساده‌تر شد تا کاربران هم راحت‌تر بتوانند به کسب و کارهای نزدیک خود دست پیدا کنند. بنابراین با این آپدیت رتبه‌بندی سرچ محلی کاملاً از رتبه‌بندی سرچ‌ها جدا شد و تغییرات زیادی در نتایج سرچ محلی به وجود آمد.

الگوریتم فرد (Fred Algorithm) – سال ۲۰۱۷

این الگوریتم در ابتدای کار خود نامی‌نداشت و عنوانی برای آن انتخاب نشده بود تا اینکه در توئیتر، گری (Gary IIIyes) این ابهام را برطرف کرد و در پاسخ به یکی از کاربران گفت تمامی‌آپدیت‌هایی که از این به بعد منتشر می‌شود و نامی ‌ندارد، فِرد نامیده می‌شود. البته منظور ما از این الگوریتم، به‌روزرسانی که در تاریخ هفتم مارس 2017 منتشر شده است.

این الگوریتم کابوسی برای سایت‌های بی‌کیفیت (خصوصا سایت‌هایی که از افیلیت مارکتینگ استفاده می‌کنند) است و در کنار الگوریتم E-A-T قصد دارد نتایج باکیفیت‌تری را در اختیار کاربران قرار دهد. در اصل الگوریتم فرد سایت‌هایی که شرایط زیر را دارند، پیدا می‌کند و به رتبه‌های پایین‌تر می‌فرستد تا فضا برای سایر سایت‌ها آماده شود:

  • تبلیغات بیش‌ازحد دارند.
  • محتواهای کوتاه تولید می‌کنند.
  • کیفیت لینک کمی‌دارند.
  • محتواها کیفیت مطلوبی ندارند.
  • تعداد زیادی لینک افیلیت دارند.
  • تبلیغات بیش از حد در محتواها به نمایش درمی‌آورند.
  • مخاطبان تعاملی با محتواها برقرار نمی‌کنند.

تمامی‌این فاکتورها یا گاهی برخی از آن‌ها کافی‌ست که این الگوریتم سراغ سایت شما بیاید.

الگوریتم مدیک یا طبی (Medic Algorithm) – سال ۲۰۱۸

الگوریتم مدیک یک الگوریتم وسیع و هسته‌ای است که سایت‌های زیادی را تحت تأثیر قرار داد و منجر به تغییرات زیادی در رتبه‌بندی شد. جالب است که این تنها الگوریتمی‌است که فقط یک حوزه و موضوع مشخص را هدف گرفته؛ حوزه پزشکی و احتمالاً دلیل آن حفظ کاربران از اطلاعات پزشکی غلط و اشتباه است. این به‌روزرسانی در سال ۲۰۱۸ در همه کشورها و همه زبان‌ها اعمال شد و همه وبلاگ‌ها، سایت‌های پزشکی، سبک زندگی و مشاورین سلامت را شامل شد. هرچند نیمی‌از سایت‌هایی که تحت تأثیر قرار گرفتند هم موضوعاتی غیرپزشکی و سلامتی داشتند.

الگوریتم برت (BERT Algorithm) – سال ۲۰۱۸

الگوریتم برت به عنوان بزرگ‌ترین تغییر طی 5 سال گذشته معرفی شده که از هر 10 سایت بر روی یکی اثر گذاشته است. این الگوریتم هم مانند الگوریتم رنک برین یک ماشین یادگیری است؛ یک تکنیک وابسته به شبکه عصبی که برای پردازش زبان طبیعی به وجود آمده است. کلمه BERT هم از حروف ابتدایی کلمات Bidirectional Encoder Representations from Transformers به معنی «رمزگذار دوطرفه نمایش داده شده از مبدل‌ها» گرفته شده.

برت می‌تواند با توجه به کلمات قبلی و بعدی به معنای کلمه پی ببرد. به عبارت دیگر برای تشخیص معنی کلمه از متن و روابط کلمات در جمله استفاده می‌کند.

الگوریتم موبایل فرست ایندکس (Mobile First Index Algorithm) – سال ۲۰۱۹

در گذشته تعداد بسیار زیادی از کاربران گوگل تنها از نسخه دسکتاپ استفاده می‌کردند، با گذشت زمان هرچقدر که جلوتر رفتیم درصد بیشتری از کاربران به استفاده از نسخه موبایل سایت‌ها روی آوردند. به همین دلیل گوگل هم تمرکزش را بر روی نسخه موبایل سایت‌ها گذاشت و این موضوع تا حدی جدی شد که گوگل رسما اعلام کرد که نسخه موبایل سایتها در اولویت قرار دارد و از طریق نسخه موبایل صفحات را ایندکس می‌کند.

الگوریتم E-A-T – سال ۲۰۱۹

گوگل با این رویکرد که سایت‌های حوزه سلامت، مالی و حقوقی حساسیت بالایی دارند و مستقیما با جان و مال افراد در ارتباط هستند، الگوریتمی‌را تحت عنوان E-A-T منتشر کرد. E-A-T در واقع مخفف سه کلمه Expertise، Authoritativeness و Trustworthiness است و به وضوح روی تخصص، اعتبار و اعتماد تاکید دارد.

این الگوریتم در ابتدا فقط روی سایت‌هایی که با سرمایه و زندگی شما (YMYL) درگیر هستند، متمرکز بود ولی گفته می‌‌شود که گوگل قصد دارد آن را به تمامی‌سایت‌ها در همه حوزه‌ها تعمیم دهد. سایتی که در زمینه‌های نام‌برده‌شده فعالیت می‌کند، باید محتوا را به شرایط زیر تولید کند تا در نگاه این الگوریتم نمره بالایی داشته باشد و در رتبه‌های برتر گوگل قرار بگیرد:

تولید محتوا باید توسط فرد متخصص و معتبری نوشته شده و زمینه کاری مرتبطی داشته باشد و مطلب به‌هیچ عنوان کپی نباشد. مثلا اگر در حوزه سلامت فعالیت دارید، گوگل زمانی به شما رتبه برتر را می‌دهد که نویسنده‌ای که در مورد داروها، تداخل آن‌ها، تاثیرات آن و… مطلب می‌نویسد، متخصص باشد تا جان کاربران به خطر نیافتد.

سایت شما باید در حوزه تخصصی که فعالیت دارید، قابل اعتماد باشد. از نگاه گوگل و الگوریتم E-A-T، سایتی که در میان سایر کسب‌وکارها قابل اعتماد باشد، می‌تواند برای کاربران هم اطمینان را فراهم کند.

در راستای دو فاکتور قبلی، اعتبار هم از نیازهای محتوایی است که در این حوزه تولید می‌شود. نویسنده معتبر، اطلاعات درست و کاربردی و استفاده کردن از منابع معتبر به‌جای کپی مطالب، فاکتور اعتبار را در نگاه گوگل تعریف می‎کند.

الگوریتم MUM (Multitasking United Model Algorithm) – سال ۲۰۲۱

این الگوریتم همانطور که از نامش پیداست، می‌تواند چند کار را با هم انجام دهد. برخلاف سایر الگوریتم‌ها که تسک‌ها را یکی پس از دیگری انجام می‌دادند، الگوریتم MUM چندین کار را باهم انجام می‌دهد. به عبارت دیگر یعنی همزمان توانایی خواندن متن، درک مفهوم و تقویت آن با ویدئو و صوت را انجام می‌دهد. همچنین به بیش از ۷۵ زبان زنده دنیا مسلط است تا بتواند اطلاعات را به درستی دریافت کند و سوالات پیچیده کاربران را پاسخ دهد.

هدف الگوریتم‌های موتور جستجوی گوگل

هدف الگوریتم‌های موتور جستجوی گوگل، دسته‌بندی مطالب سایت‌ها و کمک هر چه بیشتر به مخاطب در یافتن اطلاعات مدنظر است. روزانه حجم بسیار زیادی از اطلاعات در سایت‌های مختلف بارگذاری می‌شوند که این شبکه جهانی وب را به یک کتابخانه بی‌انتها تبدیل می‌کند. گوگل به‌عنوان کتاب‌دار این کتابخانه باید بتواند مطالب را دسته‌بندی کند تا بر اساس نیاز متقاضیان آن‌ها را در دسترس قرار دهد. آنچه به گوگل در این امر کمک می‌کند الگوریتم‌ها هستند.
الگوریتم‌های جدید گوگل این فرآیند را ظرف چند ثانیه انجام می‌دهند. الگوریتم‌های رتبه‌بندی گوگل از میان سایت‌هایی که در خود گوگل ایندکس می‌شوند به دنبال ارائه اطلاعاتی به مخاطب هستند که بیشترین بازدهی را به دنبال داشته باشد یا به عبارت دیگر لبخند رضایت را بر لبان مخاطب بنشاند.

الگوریتم‌های گوگل و تأثیر آن‌ها بر رتبه‌بندی نتایج

از آنجا که گوگل اقیانوسی از محتواست باید همه آن‌ها را به ترتیب براساس مرتبط بودن به عبارت سرچ‌شده و کیفیت محتوای ارائه‌شده فهرست کند. چرا که کاربر نیز وقت و توان بررسی همه نتایج نمایش داده شده را ندارد. پس در این میان برد با کسی است که جایگاه بالاتری داشته باشد.

گوگل برای فهرست‌بندی صفحات وب برای هر عبارت از خزنده‌ها یا اسپایدرهایی استفاده می‌کند که همه صفحات را می‌خزند و از لینکی به لینکی دیگر می‌روند و در نهایت برای هر عبارتی که ممکن است سرچ شود یک فهرستی را می‌سازند. کار اصلی موتور جستجو این است که وب سایت‌هایی را به کاربر ارائه کند که حاوی عبارات جستجوی او باشد. در نتیجه این فرایند اتوماتیک که مشخص می‌کند نتیجه هر عبارت جستجوشده در چه جایگاه و رتبه‌ای در صفحه نتایج جستجو ظاهر شود به هر صفحه یک رتبه تعلق می‌گیرد که پیج رنک (Page Rank) نامیده می‌شود.

این غول موتور جستجو نمی‌تواند یک پایگاه داده بسیار بزرگ داشته باشد که نامنظم بوده و هرگاه کاربر عباراتی را در آن جستجو کند شروع به مرتب کردن آن کند. بنابراین گوگل در هر زمان توسط خزنده‌های خود محتوا را ایندکس و مدیریت می‌کند. جستجوی ایندکس بسیار سریع‌تر از جستجوی کل پایگاه داده خواهد بود. وقتی محتوا ایندکس شد گوگل یک کپی از آن تهیه می‌کند و یک میانبر برای هر صفحه را در ایندکس قرار می‌دهد.

حالا که این فرایند انجام شد، گوگل هنگام جستجوی یک کلمه خیلی راحت‌تر می‌تواند عبارت مرتبط را پیدا کند. به ازای جستجوی هر عبارتی در گوگل هزار نتیجه وجود دارد، گوگل از طریق الگوریتم‌های خود تصمیم می‌گیرد که نتایج با چه نظم و ترتیبی به کاربر نمایش داده شود. همین نظم و ترتیب در نمایش جستجوها قلب سئو است.

داده بزرگ‌ترین سرمایه گوگل است. حجم بسیار زیاد داده، مدیریت نوین می‌طلبد تا همه آنچه کاربر می‌خواهد با رعایت اصل امانت‌داری به دستش برسد. گوگل همه ‌ساله با ابداع الگوریتم‌های جدید سعی دارد تا دنیای اطلاعات را وارد عصر جدیدتری کند.

کلام آخر

الگوریتم‌های گوگل با اینکه از یک سو می‌توانند باعث جریمه شدن یا افت رتبه سایت‌ها شوند اما این‌ها فقط در مواردی اتفاق می‌افتد که از قوانین تخلف کنند. در اکثر موارد این الگوریتم‌ها به کاربران کمک کرده‌اند. این الگوریتم‌های موتورهای جستجو بوده‌اند که باعث بهبود ارائه نتایج جستجو شده‌اند، رقابت را بین سایت‌ها ایجاد کرده و باعث بالا رفتن کیفیت مطالب ایجاد شده در وب سایت‌ها شده‌اند.

اگر شما هم صاحب سایتی هستید و قصد دارید کاربران بیشتری را با سایتتان آشنا کنید با مشاورین دایری لن در تماس باشید.02166720986

براتون مفید بود؟

یک ستاره << >> پنج ستاره

میانگین امتیاز 0 / 5. تعداد آرا 0

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *