فیلتر «انکرتکست» به پنل تریبون اضافه شد
اطلاعات بیشتر
خبرنامه سئو هفته چهارم خرداد ۱۴۰۲

منتشر شده در ۲۴ خرداد ۱۴۰۲

خبرنامه سئو هفته چهارم خرداد ۱۴۰۲

محتوای این خبرنامه به صورت اختصاصی برای شما تولید شده است. بنابراین محتوایی که در خبرنامه‌ها مطالعه می‌کنید، در سایر کانال‌های ارتباطی ما منتشر نخواهد شد.

تصویر دسته بندیاخبار گوگل
پاسخ گوگل به نظریه Index Bloat

گوگل نظریه «Index Bloat» را رد می‌کند

در قسمت اخیر پادکست «Search Off The Record»، تیم Google’s Search Relations به سؤالاتی درباره ایندکس‌شدن صفحات وب پرداختند. نکته کلیدی بحث، مفهوم «Index Bloat» بود؛ نظریه‌ای که توجه جامعه سئو را به خود جلب کرده است. در این خبر، جزئیات «Index Bloat»، پاسخ گوگل و پیامدهای آن در سئو را بررسی خواهیم کرد:

نظریه «Index Bloat» از کجا آمد؟

اصطلاح «Index Bloat» وضعیتی را توصیف می‌کند که در آن ربات‌های کرالر، صفحاتی را که برای نتایج جستجو ایده‌آل نیستند، ایندکس می‌کنند. برای مثال، صفحات محصولی که توسط کاربران فیلتر شده‌اند یا نتایج جستجوی کاربران داخل سایت. برخی از متخصصان سئو بر این باورند که این تئوری باعث می‌شود که درک مفهوم سایت‌ها برای ربات‌های موتورهای جستجو سخت‌تر شود و بودجه خزش سایت‌ را هدر دهد؛ چراکه زمان و منابع ربات‌های جستجو برای اطلاعات غیرضروری مصرف می‌شود.

پاسخ گوگل به نظریه «Index Bloat»

مولر درباره این نظریه گفت: «سیستم‌های ما تعداد صفحات ایندکس‌شده در هر سایت را محدود نمی‌کنند و فقط مفیدبودن صفحات سایت شما برای ایندکس‌شدن اهمیت دارد.»

مولر در ادامه صحبت‌های خود اشاره کرد که بهتر است به جای نگرانی در مورد حذف صفحات ایندکس‌شده از گوگل، زمان خود را صرف انتشار محتوای باکیفیت و مفید کنید. کسانی که از این تئوری حمایت می‌کنند، معمولا فایل‌های robots.txt نادرست یا محتوای ضعیفی دارند و می‌خواهند با وجود این نظریه، ضعف‌های خود را پوشش دهند.

در نهایت گوگل وجود چنین نظریه‌ای را به‌صورت رسمی رد می‌کند و تنها شاخص ایندکس صفحات را کیفیت محتوای آن‌ها می‌داند. بنابراین اگر صفحه‌ای در سایت شما وجود دارد که با مشکل ایندکس مواجه است، قبل از فکر به این نظریه‌، محتوای آن صفحه را بازنگری کنید.


تصویر دسته بندیاخبار گوگل
کنترل تعامل ربات‌های گوگل با سایت

چگونه می‌توان تعامل ربات‌های گوگل با سایت خود را کنترل کرد؟

در آخرین قسمت پادکست «Search Off The Record» در مورد کنترل میزان تعامل ربات‌های گوگل با یک سایت صحبت شد. موضوعات مورد بحث این بود که چگونه Googlebot را از خزیدن در بخش‌های خاصی از صفحه مسدود کنیم و چگونه می‌توان از دسترسی کامل Googlebot به یک سایت جلوگیری کرد؟

مسدودکردن Googlebot از بخش‌های خاص یک صفحه وب

مولر در پاسخ به این که چگونه می‌توان از خزیدن ربات‌های گوگل در بخش‌های خاصی از یک صفحه جلوگیری کرد، گفت: «چنین کاری غیرممکن است. در واقع نمی‌توانید خزیدن یک بخش خاص در یک صفحه HTML را مسدود کنید.» البته او به دو راهبرد (HTML data-nosnippet و iframe) برای مقابله با این موضوع نیز اشاره کرد که هیچ‌کدام راه‌حل‌های مناسبی نیستند.

مسدودکردن Googlebot از دسترسی به سایت

در پاسخ به سوالی در مورد جلوگیری از دسترسی Googlebot به سایت، گری ایلز Disallow را به عنوان ساده‌ترین راه‌حل پیشنهاد کرد.


تصویر دسته بندیاخبار گوگل
گوگل درباره HSTS و تاثیر آن در رتبه‌بندی سایت‌ها می‌گوید

HSTS و تاثیر آن در رتبه‌بندی سایت‌ها

اخیراً Google SEO Office Hours سؤالی در مورد اینکه آیا هدرهای امنیتی تأثیری در رتبه‌بندی دارند یا خیر، ارائه شده است. هدرهای امنیتی مانند HSTS نقش مهمی در ایجاد اتصال امن HTTPS دارند و دور از ذهن نیست که در رتبه‌بندی سایت‌ها نیز تاثیر داشته باشند، اما در ادامه به کمک این خبر بیشتر به این موضوع خواهیم پرداخت:

هدر امنیتی HSTS

هدرهای امنیتی گروه خاصی از هدرها هستند که انواع مختلفی از امنیت را برای محافظت در برابر حملات مخرب مختلف اعمال می‌کنند و سایت را برای کاربران ایمن نگه می‌دارند. هدر امنیتی HSTS پاسخی است که به مرورگر می‌گوید که صفحه وب فقط باید از طریق HTTPS قابل دسترسی باشد، نه از طریق HTTP و از آن می‌خواهد که دفعه بعد HTTPS را درخواست کند.

استفاده از این هدر بهتر از ریدایرکت ۳۰۱

وقتی مرورگر به سایتی با HTTP دسترسی پیدا می‌کند و به HTTPS ریدایرکت می‌شود، دفعه بعد نیز مرورگر به صفحه HTTP دسترسی پیدا کرده و بعد به HTTPS ریدایرکت می‌شود. در صورتی که با استفاده از هدر HSTS، مرورگر مجبور به پیداکردن صفحه با HTTPS می‌شود و دیگر به HTTP راهی پیدا نمی‌کند.

نکته مهم دیگر، آسیب‌پذیربودن ریدایرکت ۳۰۱ در برابر حمله Man-in-the-Middle است؛ اما هدر HSTS با وادارکردن مرورگر به درخواست صفحه HTTPS که کل سایت را ایمن‌تر کرده و از بروز این اتفاق جلوگیری می‌کند. بنابراین، می‌توان گفت سایتی که از هدر HSTS استفاده می‌کند، از نظر HTTPS ایمن‌تر است.

جان مولر در پاسخ به این سوال که آیا این هدرها در نتایج جستجو و رتبه‌بندی سایت‌ها نیز اثر دارند یا خیر، گفت: «البته که این هدرها برای امنیت سایت‌ها بسیار مناسب هستند؛ اما در نتایج جستجو تاثیری ندارند. با این وجود بهتر است که تمامی سایت‌ها از شیوه‌های امنیتی بدون درنظرگرفتن تاثیر آن‌ها در رتبه‌بندی استفاده کنند.»


تصویر دسته بندیاخبار گوگل
مغایرت اعتبارسنجی گوگل برای استراکچر دیتا با سایت رسمی اسکیما

چرا اعتبارسنجی گوگل برای استراکچر دیتاها با سایت رسمی اسکیما مغایرت دارد؟

مارتین اسپلیت در این خبر به سوالی در مورد تفاوت اعتبارسنجی استراکچر دیتاها در گوگل و Schema.org پاسخ داد: «هم Google و هم Schema.org ابزارهایی را برای تأیید صحت استراکچر دیتاها ارائه می‌دهند. ابزار گوگل «Rich Results Test» و ابزار اسکیما «Schema Markup Validator» نام دارد.
ابزار گوگل استراکچر دیتاها را تایید می‌کند و بازخوردی در مورد اینکه آیا استراکچر دیتای آزمایش‌شده برای قسمت ریچ ریزالت (Rich Result) مناسب است یا خیر، ارائه می‌دهد. از طرف دیگر، ابزار اسکیما بررسی می‌کند که آیا استراکچر دیتا بر اساس استانداردهای رسمی، معتبر است یا خیر.»

چرا اعتبارسنجی Google با Schema.org متفاوت است؟

در ابتدا به نظر می‌رسد که اعتبارسنجی‌ها باید از قوانین یکسانی پیروی کنند و نتیجه آن‌ها تفاوتی نداشته باشد. اما نکته اصلی این است که هدف این دو اعتبارسنجی با یکدیگر تفاوت دارد و به همین خاطر، ممکن است در یکی از این اعتبارسنجی‌ها جواب مثبت بگیرید و در دیگری جواب منفی.

می‌توان گفت که هدف اعتبارسنجی Google، تنها صحت استراکچر دیتاها نیست و بررسی می‌کند که آیا این استراکچر دیتا برای نتایج جستجو و کاربران مفید است یا خیر، در حالی که اسکیما فقط از لحاظ صحت و درستی، استراکچر دیتاها را می‌سنجد و کاری به نتایج جستجو ندارد.


عضویت در خبرنامه

ایمیل خود را وارد کنید تا از جدیدترین اخبار و مقالات حوزه دیجیتال مارکتینگ مطلع شوید.

"*" قسمتهای مورد نیاز را نشان می دهد

موضوع مورد علاقه خود را انتخاب کنید*
این فیلد برای اعتبار سنجی است و باید بدون تغییر باقی بماند .

اشتراک‌گذاری‌: