روشهای سئوی سایت دائماً در حال تغییر هستند؛ به همین دلیل است که سئو سایت در سال 2022 با 2010 بسیار متفاوت است و همه اینها به خاطر بهروزرسانی مداوم الگوریتمهای گوگل و همه موتورهای جستجو است تا بتوانند بهترین نتیجه را مطابق خواست و نیاز کاربران ارائه دهند. در همین زمان گوگل علاوه بر بهروزرسانی الگوریتمهای قدیمی، الگوریتمهای جدیدی را معرفی کرده که هر کدام وظایف مشخصی بر عهده دارند. در ادامه به معرفی مهمترین الگوریتمهای گوگل خواهیم پرداخت.
در این مقاله با مطالب زیر آشنا میشوید:
Toggleالگوریتم چیست؟
واژه الگوریتم بیشتر در مباحث ریاضی و برنامه نویسی مورد استفاده قرار میگیرد. با این حال الگوریتمها در اکثر کارهایی که ما انجام میدهیم حضور دارند. شاید اگر با تعریف الگوریتم آشنا شوید حضور آن را در زندگی خود بیشتر حس کنید. در واقع الگوریتم فهرستی از دستورات و قوانین است که یک کامپیوتر برای اجرا و تکمیل یک وظیفه باید انجام دهد.
الگوریتم گوگل چیست؟
الگوریتمهای گوگل سیستمهای پیچیدهای هستند که برای پیدا کردن و رتبهبندی مرتبطترین صفحات برای عبارت جستجوشده کمک میکنند. در واقع کل سیستم رتبهبندی گوگل از چند الگوریتم ساختهشده که هرکدام چند فاکتور مختلف درون یا برون صفحه را در نظر میگیرند.
مهمترین الگوریتمهای گوگل که باید درموردشان بدانید (باغ وحش مجازی گوگل)
به طور کلی بهروزرسانیهای گوگل به دو دسته بهروزرسانیهای بزرگ و بهروزرسانیهای کوچک تقسیم میشوند. این بهروزرسانیهای کوچک گاهاٌ چند بار در روز هم رخ میدهند اما اثر آنها به اندازهای نیست که ما متوجه تغییر خاصی شویم. از طرف دیگر الگوریتمهای بزرگ موتور جستجوی گوگل سالانه رخ میدهد و به قدری سر و صدا میکند که حتی گوگل هم آپدیت جدید را تأیید و نامی را برای آن انتخاب میکند.
از آنجا که اکثر اسامیالگوریتمهای ابتدایی گوگل از روی حیوانات گرفته شده بودند بسیاری آن را باغ وحش مجازی گوگل نامیدند.
الگوریتمهای گوگل و جریمههای آن
بسیاری از الگوریتمهایی که از سمت گوگل معرفی میشوند تاثیر مستقیمی روی وضعیت ترافیک سایت شما دارند. البته نمیتوان به قطعیت گفت که تمام این الگوریتمها به طور مستقیم با سئوی سایت شما در ارتباط هستند؛ اما بهتر است به عنوان یک متخصص سئو همواره از آپدیتهای جدید الگوریتمهای گوگل باخبر باشید. در ادامه فهرست الگوریتمهای گوگل را با هم میبینیم و درباره بعضی از آنها توضیحاتی را خواهیم خواند.
- الگوریتم پیج رنک
- الگوریتم رقص گوگل
- سندباکس گوگل
- الگوریتم هیلتاپ
- الگوریتم کافئین
- الگوریتم پاندا
- الگوریتم تازگی محتوا
- الگوریتم ونیز
- الگوریتم پنگوئن
- الگوریتم دزد دریایی
- الگوریتم EMD
- الگوریتم Page Layout
- الگوریتم گورخر
- الگوریتم مرغ مگس خوار
- الگوریتم Payday Loan
- الگوریتم کبوتر
- الگوریتم موبایل گدون
- الگوریتم رنک برین
- الگوریتم موش کور
- الگوریتم فِرد
- الگوریتم مدیک یا طبی
- الگوریتم برت
- الگوریتم موبایل فرست ایندکس
- E-A-T
- الگوریتم MUM
- الگوریتم Product Reviews
- بروزرسانی E-E-A-T
- الگوریتم Helpful Content
قبل از اینکه به سراغ بررسی الگوریتمهای گوگل برویم بد نیست نکتهای را بدانید. بسیاری از متخصصان سئو زمانی که میبینند ترافیک وب سایت به طرز غیرقابل پیش بینی کنندهای کم شده است، اول از همه به سراغ مسائلی چون اسپم بودن، بررسی بک لینکها یا سئوی داخلی سایت میروند. در حالی که یکی از مواردی که ممکن است در نظر نگیرند آپدیتهایی است که گوگل برای الگوریتمهای سئوی خود میدهد. بعد از خواندن این مقاله به اهمیت این مسئله پی میبرید و متوجه میشوید که الگوریتمهای گوگل یکی از مواردی است که باید به طور مداوم بررسی شود.
-
الگوریتم پیج رنک (Google PageRank Algorithm) – سال ۱۹۹۸
در اواخر قرن بیستم، گوگل تصمیم گرفت الگوریتم جدیدی را معرفی کند که توسط آن امکان رتبهبندی سایتها وجود داشته باشد. پیج رنک جزو اولین الگوریتمهای گوگل است.
در ابتدا این الگوریتم لینکهایی که به هر دامنه یا صفحه داده میشد را بررسی میکرد و بر همین اساس هر سایتی که لینکهای بیشتر و معتبرتری داشت، در رتبههای برتر قرار میگرفت. رفتهرفته گوگل الگوریتم پیج رنک را با هدف جلوگیری از ساخت بک لینکهای انبوه و پولی توسعه داد.
-
الگوریتم رقص گوگل (Google Dance) – سال ۲۰۰۴
گوگل وب سایتها و صفحات جدید را چند بار در صفحه نتایج جا به جا میکند تا رفتار کاربران را نسبت به آن بسنجد و بتواند نسبت به تعداد کلیکها، مدت زمانی که کاربران در صفحه میمانند و به طور کلی رفتار کاربران، رتبه مناسبی برای صفحه جدید در نظر بگیرد.
گاهی هم ممکن است رقص گوگل برای صفحهای که تازه ایجاد نشده اتفاق بیفتد. علت آن میتواند این باشد که گوگل به تازگی متوجه این صفحه شده و قصد دارد یک شانس برای گرفتن رتبه بهتر به این صفحه بدهد. اگر زمانی که این صفحه در رقص گوگل در رتبههای اول و دوم قرار گرفت توانست کاربران را به خود جذب کند قطعاً تأثیر خوبی در رتبهاش خواهد دید.
-
سندباکس گوگل (Google Sandbox) – سال ۲۰۰۴
اگر سایت شما تازه تاسیس باشد ممکن است در سندباکس گوگل قرار بگیرید. هدف اصلی گوگل سندباکس این است که جلوی گرفتن رتبه مناسب صفحات شما را در همان ابتدای کار که صفحات ایندکس میشوند بگیرد. این اتفاق به این دلیل میافتد که ممکن است محتوای صفحات شما به اندازه دیگر صفحات موجود در SERP مناسب و مرتبط نباشد و این که ممکن است اسپم باشد. در نتیجه مدتی آن را در سندباکس قرار میدهد تا از صحت آن اطمینان حاصل کند. (این ویژگی گوگل هیچگاه به صورت رسمیتایید نشده است اما بسیاری از متخصصان سئو بر این باورند که این الگوریتم وجود دارد و بر روی نتایج رتبهبندی تاثیرش را میگذارد.)
-
الگوریتم تپه (Hilltop Algorithm) – سال ۲۰۰۴
یکی از قدیمیترین الگوریتمهایی که توسط گوگل ارائه شده، الگوریتم هیلتاپ یا تپه است. سال 2003 ایده هیلتاپ مطرح شد و در سال 2004 به صورت رسمیاز انتشار آن خبر دادند. هدف این الگوریتم شناختن صفحات معتبر در موتورهای جستجو بود. در آن زمان وقتی کاربر کلمهای را سرچ میکرد، ممکن بود آن کلمه نقطه اشتراک زیادی با موضوعات مختلف داشته باشد و گوگل نمیتوانست صفحه معتبر و درستی را در اختیار کاربر قرار دهد.
این الگوریتم به وجود آمد تا صفحات تخصصی و دارای اعتبار را شناسایی کند و هنوز هم در کنار الگوریتم Page Rank، نقش مهمی را در رتبهبندی سایتها ایفا میکنند.
-
الگوریتم کافئین (Caffeine Algorithm) – سال ۲۰۱۰
در سال 2009، گوگل اعلام کرد که الگوریتم کافئین یکی از مهمترین الگوریتمهای تاریخ موتورهای جستجو خواهد شد. چندین ماه طول کشید تا گوگل آن را به صورت کامل آماده کند و در نهایت سال 2010 به شکل رسمیروانه بازار شد.
کار الگوریتم کافئین در واقع سیستم نوین ایندکس کردن سایتها بود. قبل از آن رباتهای گوگل تنها به محتواهای تازه و جدید اهمیت میدادند و برای ایندکس دوباره مطالب گذشته، سایتها مشکل داشتند. الگوریتم کافئین به صورت مستقیم روی رتبه سایتها تاثیری نگذاشت؛ اما با تغییری که ایجاد کرد باعث شد سایتهایی که محتواهای قدیمیخود را بیشتر بهروزرسانی میکنند، در رتبههای بهتری قرار بگیرند.
-
الگوریتم پاندا گوگل (Panda Algorithm) – سال ۲۰۱۱
الگوریتم پاندا در سال 2011 راهاندازی شد. هر چند گوگل سالها قبل از آن نیز به ارائه خدمات مشغول بود، اما پاندا اولین الگوریتمی بود که در دنیای مدرن سئو به صورت رسمی معرفی شد. این الگوریتم در سال 2016 به الگوریتم هسته پیوست و در نتیجه دائماً در حال فعالیت و بررسی سایتهاست. هدف از این الگوریتم پایین آوردن رتبه سایتهایی است که محتوای بیکیفیت دارند. به طور کلی تمام الگوریتمهای گوگل در تلاش هستند که سایتهای اسپم را شناسایی و حذف کنند تا نتایج جستجوی گوگل هرچه بیشتر کارآمد شود.
بیشترین مواردی که میتواند به عنوان پنالتی از طریق این الگوریتم اعلام شود، محتوای تکراری یا سرقت ادبی است؛ سعی کنید محتواهای منحصربهفرد و اورجینال بنویسید. تمرکز الگوریتم پاندا بیشتر بر فاکتورهای درون صفحه (on-page) است و تطابق عبارت سرچ شده توسط کاربران را با موضوع کلی صفحه میسنجد. این الگوریتم گوگل به دو مسئله بسیار حساس است و با آنها برخورد میکند:
- سایتهایی که فقط با هدف لینکدهی به سایتهای دیگر به وجود آمدهاند. (Affiliate sites)
- سایتهایی که محتوای بسیار کوتاهی دارند.
الگوریتم پاندا همچنین محتواهای کم حجم را شناسایی میکند. بهتر است اگر صفحهای محتوای کم حجمی دارد چه از لحاظ تعداد کلمات و چه از لحاظ لینکهایی که از آن به خارج داده شده است، آن را اصلاح یا حذف کنید. یکی دیگر از مشکلاتی که میتواند در محتواهای شما باعث شود که توسط گوگل پنالتی شوید بحث تکرار بیش از اندازه کلمه کلیدی است. این مورد به تنهایی میتواند سایت شما را اسپم کند و رتبه شما را در نتایج گوگل کاهش دهد.
-
الگوریتم تازگی محتوا (Freshness Algorithm) – سال ۲۰۱۱
در سال 2011 گوگل الگوریتم رتبهبندی را طوری تغییر داد تا محتوای تازهتر در بالای نتایج قرار بگیرد. به این ترتیب اگر موضوعی در یک دوره داغ میشد یا یک رویدادی در حال اجرا بود کاربران راحتتر میتوانستند به مطالب مربوطه دست پیدا کنند. الگوریتم تازگی محتوا بر 35 درصد از جستجوها اثر گذاشت.
-
الگوریتم ونیز (Venice Algorithm) – سال 2012
از میان الگوریتمهای موتور جستجوی گوگل، الگوریتم ونیز از آن جهت که مربوط به جستجوهای محلی میشود، آپدیت قابل توجهی محسوب میشود. در این الگوریتم که در سال 2012 به راه افتاد، IP یا موقعیت جغرافیایی که برای سایت تعریف شده باشد نیز در نتایج جستجوی گوگل دخیل شدند.
-
الگوریتم دزد دریایی (Pirate Algorithm) – سال ۲۰۱۲
این یکی از آن الگوریتمهای گوگل است که کاملاً با اسمش همخوانی دارد. گوگل با ایجاد این بهروزرسانی در سال 2012 سعی داشت تا با کپیبرداری از مطالب سایتهای دیگر و به نوعی دزدی ادبی مقابله کند. به این ترتیب برای سایتهایی که محتوای تکراری منتشر میکردند رتبه منفی در نظر گرفت.
خصوصاً سایتهایی که در زمینه دانلود کتاب، فیلم یا موزیک بدون کپی رایت فعالیت میکنند، تحت تاثیر الگوریتم دزد دریایی خواهند بود. البته هنوز میزان دقت و قدرت این الگوریتم در حدی نیست که به دنبال تک تک وب سایتهای جدید که محتوای دزدی دارند بیفتد. با توجه به این که تعداد این سایتها هم هر روز بیشتر میشود. اما برای کسانی که میخواهند روی سایت خود سرمایهگذاری کنند توجه به این نکته اهمیت زیادی دارد تا مطمئن شوید دچار پنالتی گوگل نخواهید شد.
-
الگوریتم EMD (Exact Match Domain) – سال ۲۰۱۲
در سال 2012، برای اولین بار سخن از الگوریتمیبه نام Exact Match Domain به میان آمد. این الگوریتم در طی این 10 سال بارها و بارها آپدیت شده و هدف اصلی آن از بین بردن سایتهایی است که بهصورت اسپمیفعالیت میکنند و محتوای ضعیفی ارائه میدهند.
سایتهایی که محتوای بیکیفیت تولید میکنند و قادر نیستند که نیاز مخاطبان خود را برطرف کنند و ارزشی برای آنها خلق نمیکنند، بیشتر از سایر سایتها در معرض درگیری با این الگوریتم هستند.
-
الگوریتم پنگوئن (Penguin Algorithm) – ۲۰۱۲
الگوریتم پنگوئن توسط گوگل معرفی شده تا کیفیت لینکهای دادهشده به یک صفحه را مشخص کند. این الگوریتم که تاکنون چندین بار بهروزرسانی شده، میتواند به بهبود رتبهبندی یک سایت کمک کند یا سایتهای لینکهای مخرب و پولی گرفته باشند، را با جریمه مواجه کند.
وقتی گوگل اعلام کرد که بک لینکها میتوانند در گرفتن رتبه اثر مثبتی داشته باشند، برخی سایتها شروع به ساخت یا خرید بک لینک مصنوعی کردند. گوگل برای مقابله با این اقدام الگوریتم پنگوئن را راه اندازی کرد. با این بهروزرسانی موتور جستجوی گوگل، صفحاتی که در این زمینه متخلف شناخته شوند از صفحه نتایج جستجو حذف خواهند شد. در بهترین حالت نیز ممکن است دچار افت رتبه شوند.
آخرین بهروزرسانی در سال 2016 رخ داد و طی آن قرار شد که بک لینکهای هر صفحه را مورد بررسی قرار دهد و اگر تخلفی رخ داد، همان لندینگ را جریمه کند؛ اما از آنجایی که عملکرد تک تک صفحات روی رتبه سایت موثر است، افت رتبه یا جریمه یک یا چند صفحه میتواند تاثیرات منفی خود را روی کل سایت بگذارد.
-
الگوریتم پیج لیاوت (Page Layout Algorithm) – سال ۲۰۱۲
این الگوریتم در اوایل سال 2012 برای اولین بار ارائه شد. در نسخه اولیه الگوریتم Page Layout که با نام «Top Heavy» هم شناخته میشد، گوگل قصد داشت جلوی سایتهایی که تعداد زیادی تبلیغ را در بالای صفحات سایت خود قرار میدهند را بگیرد. چند ماه بعد مدیر تیم وب اسپم گوگل خبر آپدیت جدید این الگوریتم را در توئیتر منتشر کرد و همچنین اعلام کرد که Page Layout توانسته روی 0.7 درصد از کوئریهای انگلیسی تاثیر بگذارد.
در سال 2014 بار دیگر بهروزرسانی برای آن درنظر گرفته شد تا عمکلرد بهتری را ارائه کند. در سال 2016 هم جان مولر در مصاحبهای بیان کرد که این الگوریتم به صورت کامل اتوماتیک شده و از این به بعد بدون دخالت دست میتواند اثرگذار باشد.
بعد از بهروزرسانی آخر، گوگل با تبلیغات در بالای صفحه تا زمانی که به تجربه کاربر آسیبی وارد نکند و بیش از حد نباشد، مشکلی نداشت. بنابراین سایتها میتوانستند در ابتدای صفحه خود تبلیغ قرار دهند. برای بهتر مشخص شدن چگونگی قرارگیری آن هم چندین تصویر را منتشر کرد.
همچنین کرالرهای گوگل بهخوبی میتوانند سایتهایی که تبلیغات آزاردهندهای در ابتدای صفحه خود قرار دادهاند را شناسایی کنند و بهعنوان یک فاکتور منفی در رتبهبندی درنظر بگیرند. این الگوریتم کمک میکند تا کاربری که بهعنوان مثال با موبایل وارد چنین سایتهایی میشود، 4 الی 5 بار برای رسیدن به محتوای موردنیاز خود اسکرول نکند و تجربه کاربری بهتری داشته باشد.
-
الگوریتم گورخر (Zebra Algorithm) – سال ۲۰۱۳
این الگوریتم در واقع آپدیتی برای الگوریتم هسته مرکزی است که در سال 2013 ایده ایجاد آن کلید خورد. یکی از نمایندگان گوگل با پدیده عجیبی مواجه شد؛ او در حالی که از نتایج جستجو بازدید میکرد، یک عینکفروشی را در رتبه اول گوگل دید که هیچ شباهتی به یک فروشگاه نداشت.
در ادامه بهروزرسانی گورخر که بعدها با نام الگوریتم هم از آن یاد کردند، سایتهای فروشگاهی که خدمات بیکیفیتی ارائه میکردند را مورد هدف قرار داد و اگر فروشگاه فاکتورهای لازم را نداشت، آن را از نتایج جستجو حذف میکرد یا به رتبههای پایینتر میفرستاد.
گورخر، هشدار بسیار مناسبی برای سایتهای فروشگاهی بود که بدون توجه به کاربر و نیاز آن فعالیت میکردند و خدمات بیکیفیتی را ارائه میدادند.
-
الگوریتم مرغ مگس خوار (Hummingbird Algorithm) – سال ۲۰۱۳
یکی از بخشهایی که در الگوریتمهای گوگل بهبود یافته است، درک عمیق تر از مفهوم کوئریهاست. در گذشته زمانی که یک کاربر عبارتی را در گوگل جستجو میکرد در نتایج گوگل ابتدا لینکهایی را نشان میداد که این عبارت کلیدی در آن وجود داشت. در حالی که توسط الگوریتم مرغ مگس خوار این فرایند تغییر کرده است و حالا بیشتر اهمیت دارد که نتیجه جستجو به موضوع و زمینه اصلی کوئری مرتبط باشد و الزاماً نیازی نیست که این کلمه کلیدی در داخل مقاله یا محتوای یک صفحه استفاده شده باشد به همین خاطر استفاده از مترادفها بهینه تر شده و اهمیت بیشتری یافته است.
گوگل الگوریتم مرغ مگس خوار را برای سرچ صوتی (voice-search) پایهگذاری کرد و حالا هرچه زمان میگذرد و دستگاهها بیشتر به تایپ صوتی مجهز میشوند اهمیت بیشتری مییابد. بر همین اساس، مرغ مگس خوار به کل عبارت سرچ شده توجه میکند نه تکتک کلمات. چراکه ممکن است به دلایلی چون اشتباهات تایپی و… عبارتی سرچ شود که در واقع منظور کاربر نباشد. اما گوگل به کمک این الگوریتم میتواند نتایجی را ارائه دهد که با وجود اشتباه تایپی با آنچه در ذهن کاربر بوده تطابق داشته باشد.
اگر قصد دارید نوشتههایتان را برای این الگوریتم گوگل سئو کنید باید علاوه بر کلیدواژه از مترادفهای آن نیز استفاده کنید. متن باید به اندازه کافی روان نوشته شده باشد و خوانایی خوبی داشته باشد. اما نگران نباشید؛ چراکه مرغ مگس خوار کسی را به خاطر عدم رعایت این نکات جریمه نخواهد کرد. فقط با رعایت آنها میتوانید بهتر در نتایج جستجوی مرتبط با نوشتههایتان ظاهر شوید.
از آنجایی که برای گوگل محتواهای ارزشمند و اورجینال اهمیت دارد، بهتر است از این به بعد روی تحقیقات کلمه کلیدی خود بیشتر کار کنید. به این معنا که بهتر است به جای تکیه کردن روی عبارات کوتاه و کلمات کلیدی، بر روی تولید محتوای با ارزش که تمرکز کنید. هنوز هم در میان سایتها نوشتن کلمات غیر طبیعی و نه چندان مفهوم در عنوانها رایج است. اما به مرور زمان با هوشمندتر شدن موتورهای جستجو تمام این سایتها به مشکل خواهد خورد چرا که مفهوم و کانسپت هم در نوشتهها اهمیت پیدا میکند.
-
الگوریتم Payday Loan – سال ۲۰۱۳
این الگوریتم برای مقابله با سایتهای مستهجن و قمار ایجاد شد که به نوعی سایتهای اسپم محسوب میشوند.
-
الگوریتم کبوتر (Pigeon Algorithm) – سال ۲۰۱۴
در این باغ وحش مجازی گوگل پرندههای دیگری هم حضور دارند و یکی از آنها الگوریتم کبوتر است که یک سال بعد از مرغ مگس خوار و در 2014 متولد شد. این الگوریتم هم مانند الگوریتم ونیز بر سئوی محلی تمرکز دارد با این تفاوت که علاوه بر این که بر صفحات نتایج اثرگذار است بر نقشه گوگل نیز توجه ویژهای داشته است و منجر به توانایی گوگل در ارائه نتایج نزدیک به کاربران شده است.
-
الگوریتم موبایل گدون (Mobilegeddon Algorithm) – سال ۲۰۱۵
صنعت سئو بهروزرسانی موبایل گوگل را به موبایل گدون تفسیر کرد. تصور سئوکاران بر این بود که این آپدیت کل نتایج جستجو را دگرگون خواهد کرد. در سال 2015 که الگوریتم موبایل گدون معرفی شد 50 درصد از سرچهای گوگل از دستگاههای تلفن همراه انجام میشدند و این مسئله باعث شد تا گوگل برای سایتهایی که برای صفحههایی به اندازه موبایل هم مناسب ساخته شده بودند، امتیاز خاصی در نظر بگیرد. این سایتها را اصطلاحاً mobile friendly مینامیم. هدف این الگوریتم ارتباط راحت و دسترسی سریع کاربران با وب سایت شما از طریق پلتفرم موبایل است. موبایل فرندلی بودن فاکتوری است که در حال حاضر اهمیت بالاتری برای گوگل نسبت به نسخه دسکتاپ دارد.
گوگل برای تکمیل رضایت کاربران در این بخش به سرعت لود صفحه نیز پرداخت و در سال 2018 طی یک بهروزرسانی دیگر سرعت لود صفحه را نیز جزء فاکتورهای رتبهبندی قرار داد. البته سرعت هم در سرچ موبایلی و هم در دسکتاپ اهمیت دارد.
پیشنهاد گوگل برای وب سایتها استفاده از قالبهای ریسپانسیو یا تکنولوژی صفحات موبایلی پرشتاب است. این تکنولوژی که با نام مخففAMP شناخته میشود، باعث میشود صفحات یک سایت در حالت موبایل با سرعت بسیار بالاتری نمایش داده شود. برای اینکه مطمئن شوید صفحات وب سایت شما موبایل فرندلی است، میتوانید از ابزار گوگل موبایل فرندلی تست (Google Mobile friendly test) که به صورت کاملاً رایگان در اختیار افراد قرار میگیرد، برای بررسی وب سایت خود استفاده کنید.
-
الگوریتم رنک برین (Rank Brain Algorithm) – سال ۲۰۱۵
رنک برین در میان الگوریتمهای جستجو اوج هنرنمایی گوگل است؛ چراکه گوگل در این بهروزرسانی برای مدیریت عبارتهای سرچ شده از ماشین یادگیری استفاده کرده است. به این ترتیب میتواند معنی کلماتی که نمیشناسد را حدس بزند، کلمات با معنای مشابه را پیدا کند و بر اساس آن نتایج مرتبط را ارائه دهد.این بهروزرسانی در سال 2015 معرفی شد و به واسطه آن گوگل توانست نتایجی به مراتب مرتبطتر از قبل به کاربران ارائه دهد. یک سال بعد یعنی در مارس 2016 گوگل اعلام کرد که الگوریتم رنک برین یکی از سه الگوریتم مهم برای رتبهبندی سایتها است.
مشکل اینجاست که شما نمیتوانید به روشهای سنتی همان طور که برای الگوریتمهای دیگر سایتتان را سئو میکردید، برای الگوریتم رنک برین هم صفحات سایتتان را سئو کنید مگر اینکه محتوای باکیفیتی بنویسید.
-
الگوریتم موش کور (Possum Algorithm) – سال ۲۰۱۶
در سال 2016 گوگل بعد از الگوریتمهای ونیز و کبوتر، از الگوریتم صاریغ برای سرچ محلی پردهبرداری کرد تا یک پرده دیگر نیز در باغ وحش مجازی خود داشته باشد. بعد از این بهروزرسانی دیده شدن در سرچ محلی برای برخی کسب و کارهایی که در رتبهبندی کلی گوگل نمیتوانستند رتبه خوبی به دست بیاورند سادهتر شد تا کاربران هم راحتتر بتوانند به کسب و کارهای نزدیک خود دست پیدا کنند. بنابراین با این آپدیت رتبهبندی سرچ محلی کاملاً از رتبهبندی سرچها جدا شد و تغییرات زیادی در نتایج سرچ محلی به وجود آمد.
-
الگوریتم فرد (Fred Algorithm) – سال ۲۰۱۷
این الگوریتم در ابتدای کار خود نامینداشت و عنوانی برای آن انتخاب نشده بود تا اینکه در توئیتر، گری (Gary IIIyes) این ابهام را برطرف کرد و در پاسخ به یکی از کاربران گفت تمامیآپدیتهایی که از این به بعد منتشر میشود و نامی ندارد، فِرد نامیده میشود. البته منظور ما از این الگوریتم، بهروزرسانی که در تاریخ هفتم مارس 2017 منتشر شده است.
این الگوریتم کابوسی برای سایتهای بیکیفیت (خصوصا سایتهایی که از افیلیت مارکتینگ استفاده میکنند) است و در کنار الگوریتم E-A-T قصد دارد نتایج باکیفیتتری را در اختیار کاربران قرار دهد. در اصل الگوریتم فرد سایتهایی که شرایط زیر را دارند، پیدا میکند و به رتبههای پایینتر میفرستد تا فضا برای سایر سایتها آماده شود:
- تبلیغات بیشازحد دارند.
- محتواهای کوتاه تولید میکنند.
- کیفیت لینک کمیدارند.
- محتواها کیفیت مطلوبی ندارند.
- تعداد زیادی لینک افیلیت دارند.
- تبلیغات بیش از حد در محتواها به نمایش درمیآورند.
- مخاطبان تعاملی با محتواها برقرار نمیکنند.
تمامیاین فاکتورها یا گاهی برخی از آنها کافیست که این الگوریتم سراغ سایت شما بیاید.
-
الگوریتم مدیک یا طبی (Medic Algorithm) – سال ۲۰۱۸
الگوریتم مدیک یک الگوریتم وسیع و هستهای است که سایتهای زیادی را تحت تأثیر قرار داد و منجر به تغییرات زیادی در رتبهبندی شد. جالب است که این تنها الگوریتمیاست که فقط یک حوزه و موضوع مشخص را هدف گرفته؛ حوزه پزشکی و احتمالاً دلیل آن حفظ کاربران از اطلاعات پزشکی غلط و اشتباه است. این بهروزرسانی در سال 2018 در همه کشورها و همه زبانها اعمال شد و همه وبلاگها، سایتهای پزشکی، سبک زندگی و مشاورین سلامت را شامل شد. هرچند نیمیاز سایتهایی که تحت تأثیر قرار گرفتند هم موضوعاتی غیرپزشکی و سلامتی داشتند.
-
الگوریتم برت (BERT Algorithm) – سال ۲۰۱۸
الگوریتم برت به عنوان بزرگترین تغییر طی 5 سال گذشته معرفی شده که از هر 10 سایت بر روی یکی اثر گذاشته است. این الگوریتم هم مانند الگوریتم رنک برین یک ماشین یادگیری است؛ یک تکنیک وابسته به شبکه عصبی که برای پردازش زبان طبیعی به وجود آمده است. کلمه BERT هم از حروف ابتدایی کلمات Bidirectional Encoder Representations from Transformers به معنی «رمزگذار دوطرفه نمایش داده شده از مبدلها» گرفته شده.
برت میتواند با توجه به کلمات قبلی و بعدی به معنای کلمه پی ببرد. به عبارت دیگر برای تشخیص معنی کلمه از متن و روابط کلمات در جمله استفاده میکند.
-
الگوریتم موبایل فرست ایندکس (Mobile First Index Algorithm) – سال ۲۰۱۹
در گذشته تعداد بسیار زیادی از کاربران گوگل تنها از نسخه دسکتاپ استفاده میکردند، با گذشت زمان هرچقدر که جلوتر رفتیم درصد بیشتری از کاربران به استفاده از نسخه موبایل سایتها روی آوردند. به همین دلیل گوگل هم تمرکزش را بر روی نسخه موبایل سایتها گذاشت و این موضوع تا حدی جدی شد که گوگل رسما اعلام کرد که نسخه موبایل سایتها در اولویت قرار دارد و از طریق نسخه موبایل صفحات را ایندکس میکند.
-
سند راهنمای ارزیابهای جستجوی گوگل E-A-T – سال ۲۰۱۹
گوگل با این رویکرد که سایتهای حوزه سلامت، مالی و حقوقی حساسیت بالایی دارند و مستقیما با جان و مال افراد در ارتباط هستند، دستورالعملی را تحت عنوان E-A-T منتشر کرد. E-A-T در واقع مخفف سه کلمه Expertise، Authoritativeness و Trustworthiness است و به وضوح روی تخصص، اعتبار و اعتماد تاکید دارد.
این دستورالعمل در ابتدا فقط روی سایتهایی که با سرمایه و زندگی شما (YMYL) درگیر هستند، متمرکز بود ولی گفته میشود که گوگل قصد دارد آن را به تمامیسایتها در همه حوزهها تعمیم دهد. سایتی که در زمینههای نامبردهشده فعالیت میکند، باید محتوا را به شرایط زیر تولید کند تا در نگاه این الگوریتم نمره بالایی داشته باشد و در رتبههای برتر گوگل قرار بگیرد:
تولید محتوا باید توسط فرد متخصص و معتبری نوشته شده و زمینه کاری مرتبطی داشته باشد و مطلب بههیچ عنوان کپی نباشد. مثلا اگر در حوزه سلامت فعالیت دارید، گوگل زمانی به شما رتبه برتر را میدهد که نویسندهای که در مورد داروها، تداخل آنها، تاثیرات آن و… مطلب مینویسد، متخصص باشد تا جان کاربران به خطر نیافتد.
سایت شما باید در حوزه تخصصی که فعالیت دارید، قابل اعتماد باشد. از نگاه گوگل و E-A-T، سایتی که در میان سایر کسبوکارها قابل اعتماد باشد، میتواند برای کاربران هم اطمینان را فراهم کند.
در راستای دو فاکتور قبلی، اعتبار هم از نیازهای محتوایی است که در این حوزه تولید میشود. نویسنده معتبر، اطلاعات درست و کاربردی و استفاده کردن از منابع معتبر بهجای کپی مطالب، فاکتور اعتبار را در نگاه گوگل تعریف میکند.
-
الگوریتم MUM (Multitasking United Model Algorithm) – سال ۲۰۲۱
این الگوریتم همانطور که از نامش پیداست، میتواند چند کار را با هم انجام دهد. برخلاف سایر الگوریتمها که تسکها را یکی پس از دیگری انجام میدادند، الگوریتم MUM چندین کار را باهم انجام میدهد. به عبارت دیگر یعنی همزمان توانایی خواندن متن، درک مفهوم و تقویت آن با ویدئو و صوت را انجام میدهد. همچنین به بیش از 75 زبان زنده دنیا مسلط است تا بتواند اطلاعات را به درستی دریافت کند و سوالات پیچیده کاربران را پاسخ دهد.
-
الگوریتم Product Reviews – سال ۲۰۲۱
تمام هدف موتورهای جستجو از رتبهبندی سایتها این است که مرتبطترین و دقیقترین نتیجه را به کاربر نشان دهند. این موضوع برای کاربرانی که تحقیقات جامعی درباره خرید یک محصول انجام میدهند، اهمیت زیادی دارد. به همین دلیل، گوگل در آپریل ۲۰۲۱، الگوریتم جدیدی به نام «پروداکت ریوو» را معرفی کرد. این الگوریتم محتوایی را برای محصولات مناسب میداند که بر اساس تجزیهوتحلیل دقیق و تحقیقات واقعی باشد. بهصورت کلی، الگوریتم product review روی توضیحات دستاول محصولات، تصاویر منحصربهفرد و مرتبط با کالا تمرکز دارد و کمک میکند کاربران تجربه بهتری در هنگام خرید محصولات داشته باشند. از ابتدای معرفی این الگوریتم تا به امروز، گوگل چندین بهروزرسانی روی الگوریتم Product Reviews انجام داده است.
-
بهروزرسانی EEAT – سال ۲۰۲۲
در آخرین روزهای سال ۲۰۲۲، گوگل با اضافهکردن فاکتور جدید «تجربه» به مفهوم E-A-T، تغییرات چشمگیری در دستورالعمل ارزیابی کیفیت (QRG) نتایج جستجو ایجاد کرد. در حال حاضر، شاخص E-A-T به شاخص E-E-A-T تبدیل شده و هر کدام بهصورت زیر تعریف میشوند:
- شاخص تجربه (experience)
- شاخص تخصص (expertise)
- شاخص اعتبار(authoritativeness)
- شاخص اعتماد (trustworthiness)
منظور از تجربه در شاخص E-E-A-T، این است که نویسنده تا چه حد درباره یک موضوع تجربه شخصی دارد. به بیان دیگر گوگل با معرفی این شاخص میخواهد مطمئن شود آیا یک محتوا بر اساس تجربه زیستی نویسنده نوشته شده است یا خیر. تجربه نویسنده میتواند شامل تجربه استفاده از یک محصول، دریافت یک خدمت یا سرویس، بازدید از یک مکان واقعی یا تجربه انجام یک کار واقعی باشد. برای درک این مفهوم، به مثالهای زیر دقت کنید:
✅ مثال درست: نگارش محتوای نقد و بررسی گوشی آیفون توسط فردی که چند روز از آن استفاده کرده است.
❌ مثال نقض: نگارش محتوای نقد و بررسی گوشی آیفون که فقط با جمعآوری اطلاعات عمومی و بدون استفاده شخصی نوشته شده است.
با اینکه گوگل فاکتور تجربه را به دستورالعمل ارزیابی خود اضافه کرده است، اما تاکید دارد شاخص اعتماد (trustworthiness) مهمترین شاخص در E-E-A-T به شمار میرود. صفحاتی که غیرقابل اعتماد هستند، صرف نظر از اینکه چقدر در آنها تجربه، تخصص یا اعتبار وجود دارد، قطعاً E-E-A-T پایینی دارند.
-
الگوریتم Helpful Content – سال ۲۰۲۲
گوگل در سال ۲۰۲۲، بهروزرسانی جدیدی به نام «helpful content» یا «محتوای مفید» را با هدف کمک به کاربران برای یافتن محتوای باکیفیت معرفی کرد. گوگل با این الگوریتم، محتواهای کمارزش را شناسایی میکند و به محتواهای مفیدی که برای کاربر انسانی نوشته شدهاند کمک میکند تا رتبه بهتری در نتایج جستجو بگیرند. الگوریتم محتوای مفید، برخلاف بسیاری دیگر از الگوریتمها که بهصورت صفحهبهصفحه (Page-by-Page) عمل میکنند، یک الگوریتم Side-Wide است. به عبارتی نهتنها یک صفحه، بلکه کل سایت را بررسی میکند. بنابراین، اگر گوگل تشخیص دهد که سایتی شامل تعداد زیادی محتوای غیرمفید است، کل سایت را تحت تأثیر قرار میدهد. از آنجایی که در سالهای اخیر، گوگل به مفهوم تجربه کاربری بسیار اهمیت میدهد، پس با تولید محتوایی که شاخصهای الگوریتم helpful content را داشته باشد، میتوان ابتدا رضایت مخاطب و سپس رباتهای گوگل را به دست آورد. شما بهعنوان تولیدکننده محتوا یا مدیر سایت، میتوانید ارزشمندی محتواهای سایت خود را با پاسخ به چند سوال اساسی در سند راهنمای Helpful Content بررسی کنید.
این نکته را در نظر بگیرید که تمام الگوریتمهای معرفیشده در این مطلب، از زمان انتشار تاکنون چندین بهروزرسانی داشتهاند و سازوکار آنها با ارزیابیها و آزمایشهای دقیق بهبود یافته است. با این حال، گوگل معمولاً بهروزرسانیهای مهم خود را بهصورت رسمی اعلام میکند.
در انتهای این مقاله بهتر است به این نکته اشاره کنیم که گوگل در سال ۲۰۲۳، الگوریتم جدیدی را معرفی نکرد و تمام تمرکز خود را روی بهروزرسانی هسته، پروداکت ریوو و الگوریتم محتوای مفید گذاشت. علاوه بر این، چندین بهروزرسانی برای تشخیص لینک اسپم (Link Spam Update) انجام داد. برای اینکه بتوانید لیست کامل و جزئیات بهروزرسانیها را از سال ۲۰۰۳ تا ۲۰۲۳ ببیند، پیشنهاد میکنیم مطلب «تاریخچه بهروزرسانیهای الگوریتم گوگل» را در سایت Search Engine Journal بخوانید.
هدف الگوریتمهای موتور جستجوی گوگل
هدف الگوریتمهای موتور جستجوی گوگل، دستهبندی مطالب سایتها و کمک هر چه بیشتر به مخاطب در یافتن اطلاعات مدنظر است. روزانه حجم بسیار زیادی از اطلاعات در سایتهای مختلف بارگذاری میشوند که این شبکه جهانی وب را به یک کتابخانه بیانتها تبدیل میکند. گوگل بهعنوان کتابدار این کتابخانه باید بتواند مطالب را دستهبندی کند تا بر اساس نیاز متقاضیان آنها را در دسترس قرار دهد. آنچه به گوگل در این امر کمک میکند الگوریتمها هستند.
الگوریتمهای جدید گوگل این فرآیند را ظرف چند ثانیه انجام میدهند. الگوریتمهای رتبهبندی گوگل از میان سایتهایی که در خود گوگل ایندکس میشوند به دنبال ارائه اطلاعاتی به مخاطب هستند که بیشترین بازدهی را به دنبال داشته باشد یا به عبارت دیگر لبخند رضایت را بر لبان مخاطب بنشاند.
الگوریتمهای گوگل و تأثیر آنها بر رتبهبندی نتایج
از آنجا که گوگل اقیانوسی از محتواست باید همه آنها را به ترتیب براساس مرتبط بودن به عبارت سرچشده و کیفیت محتوای ارائهشده فهرست کند. چرا که کاربر نیز وقت و توان بررسی همه نتایج نمایش داده شده را ندارد. پس در این میان برد با کسی است که جایگاه بالاتری داشته باشد.
گوگل برای فهرستبندی صفحات وب برای هر عبارت از خزندهها یا اسپایدرهایی استفاده میکند که همه صفحات را میخزند و از لینکی به لینکی دیگر میروند و در نهایت برای هر عبارتی که ممکن است سرچ شود یک فهرستی را میسازند. کار اصلی موتور جستجو این است که وب سایتهایی را به کاربر ارائه کند که حاوی عبارات جستجوی او باشد. در نتیجه این فرایند اتوماتیک که مشخص میکند نتیجه هر عبارت جستجوشده در چه جایگاه و رتبهای در صفحه نتایج جستجو ظاهر شود به هر صفحه یک رتبه تعلق میگیرد که پیج رنک (Page Rank) نامیده میشود.
این غول موتور جستجو نمیتواند یک پایگاه داده بسیار بزرگ داشته باشد که نامنظم بوده و هرگاه کاربر عباراتی را در آن جستجو کند شروع به مرتب کردن آن کند. بنابراین گوگل در هر زمان توسط خزندههای خود محتوا را ایندکس و مدیریت میکند. جستجوی ایندکس بسیار سریعتر از جستجوی کل پایگاه داده خواهد بود. وقتی محتوا ایندکس شد گوگل یک کپی از آن تهیه میکند و یک میانبر برای هر صفحه را در ایندکس قرار میدهد.
حالا که این فرایند انجام شد، گوگل هنگام جستجوی یک کلمه خیلی راحتتر میتواند عبارت مرتبط را پیدا کند. به ازای جستجوی هر عبارتی در گوگل هزار نتیجه وجود دارد، گوگل از طریق الگوریتمهای خود تصمیم میگیرد که نتایج با چه نظم و ترتیبی به کاربر نمایش داده شود. همین نظم و ترتیب در نمایش جستجوها قلب سئو است.
داده بزرگترین سرمایه گوگل است. حجم بسیار زیاد داده، مدیریت نوین میطلبد تا همه آنچه کاربر میخواهد با رعایت اصل امانتداری به دستش برسد. گوگل همه ساله با ابداع الگوریتمهای جدید سعی دارد تا دنیای اطلاعات را وارد عصر جدیدتری کند.
سخن پایانی
الگوریتمهای گوگل با اینکه از یک سو میتوانند باعث جریمه شدن یا افت رتبه سایتها شوند اما اینها فقط در مواردی اتفاق میافتد که از قوانین تخلف کنند. در اکثر موارد این الگوریتمها به کاربران کمک کردهاند. این الگوریتمهای موتورهای جستجو بودهاند که باعث بهبود ارائه نتایج جستجو شدهاند، رقابت را بین سایتها ایجاد کرده و باعث بالا رفتن کیفیت مطالب ایجاد شده در وب سایتها شدهاند.
اگر شما هم صاحب سایتی هستید و قصد دارید کاربران بیشتری را با سایتتان آشنا کنید باید آن را طبق الگوریتمهای گوگل سئو کنید تا از هرگونه آسیب احتمالی در امان بمانید.
واقعا باید با گوگل مثل یه آدم برخورد کرد
بله همینطور هست که میفرمایید، البته گاهی اوقات هم واقعا ارزیابان گوگل که انسان هستند صفحاتمون رو مورد بررسی قرار میدهند. اگر مایل باشید پیشنهاد میکنم این ایبوک رو که در مورد ارزیابان گوگل ارائه شده مطالعه کنید:
https://static.googleusercontent.com/media/guidelines.raterhub.com/en//searchqualityevaluatorguidelines.pdf
سال ۲۰۲۱ هم یک اپدیت عظیم به هسته خود اضافه کرده بنام الگوریتم مام
الگوریتم e a t هم جای توضیح داره
سلام دوست عزیز وقتتون به خیر
ممنونیم از پاسختون، مورد اولی که نیاز هست بهش اشاره کنیم اینه که شاخص e.a.t که شما هم بهش اشاره کردید بسیار مهم، ارزشمند و تاثیرگذاره و الگوریتم نیست.
برای این موضوع هم در یک مقاله دیگه به صورت کاملتر بهش پرداختیم. اگر براتون جالب بود خوشحال میشیم مطالعه کنید و نظرتون رو با ما در میان بگذارید:
https://www.triboon.net/blog/2231/e-a-t/
و بله دقیقا همینطور که فرمودید الگوریتم MUM هم بسیار مهم هست و در آینده قطعا تاثیرات بیشتری بر روی نتایج SERP خواهد گذاشت. ممنونیم از یادآوریتون این مورد رو هم به این مقاله حتما اضافه میکنم. و در یک بلاگ دیگه هم به صورت کاملتر بهش پرداختیم که آدرسش رو برای دسترسی راحتتر براتون در همین کامنت قرار میدیم:
https://www.triboon.net/blog/7478/%D8%A7%D9%84%DA%AF%D9%88%D8%B1%DB%8C%D8%AA%D9%85-mum-%DA%AF%D9%88%DA%AF%D9%84-%D9%86%DB%8C%D8%A7%D8%B2%D9%87%D8%A7%DB%8C-%D8%B4%D9%85%D8%A7-%D8%B1%D8%A7-%D9%85%DB%8C%E2%80%8E%D9%81%D9%87%D9%85%D8%AF/
سلام و خسته نباشید
آیا هنوز الگوریتمی برای تشخیص pbn ساخته شده؟
سلام حسین جان
وقتتون به خیر
الگوریتم پنگوئن برای شناسایی لینکسازیهای اسپم و غیرطبیعی هست و این موضوع رو هم میتونه متوجه بشه.
صرف دونستن اینا برای یه سئوکار کافیه
بعضی شرکتا توقع دارن که سئوکار اینارو حفظ باشه :/
قطعا که فقط دونستن اینکه این الگوریتمها چی هستن و چی کار میکنن کافی نیست، مهم اینکه بدونیم برای هر کدوم باید چیکار کنیم و هر کاری که میکنیم در راستای کدوم الگوریتمه که بتونیم تصمیم درست بگیریم و سلیقهای عمل نکنیم.
سلام
بسیار متشکرم از مقاله جامعی که برای این موضوع به اشتراک گذاشتید. نکتهی مهم رعایت الگوریتمهای توضیح داده شده در بتن کار بود که اتفاقا باعث شد برای این موضوع گوگل سایت شما رو در رتبه نخست نشون بده.
سوالی که دارم اینه که آیا در سالها ۲۰۲۰، ۲۰۲۲ و ۲۰۲۳ الگوریتم جدید معرفی نشده؟
سلام فاطمه جان، قطعا که تو سالهای ۲۰۲۱ و ۲۰۲۲ هم آپدیت داشتیم، دلایل اینکه تو این مقاله بهشون اشاره نکردیم، موارد زیر هست؛
– الگوریتمهای جدیدی نبودن
– یا بروزرسانیِ الگوریتمهای قبلی بودن
– یا آپدیتهای core یا همون هستهی گوگل بودن
اما تو سال ۲۰۲۳ بروزرسانیهای مهمی انجام شده ولی ما هنوز فرصت نکردیم این مقاله رو آپدیت کنیم و بهزودی اینکار رو انجام میدیم.
ممنون از حسن توجه شما 🌹