محتوای این خبرنامه به صورت اختصاصی برای شما تولید شده است. بنابراین محتوایی که در خبرنامهها مطالعه میکنید، در سایر کانالهای ارتباطی ما منتشر نخواهد شد.
منتشر شده در ۲۴ خرداد ۱۴۰۲
محتوای این خبرنامه به صورت اختصاصی برای شما تولید شده است. بنابراین محتوایی که در خبرنامهها مطالعه میکنید، در سایر کانالهای ارتباطی ما منتشر نخواهد شد.
در قسمت اخیر پادکست «Search Off The Record»، تیم Google’s Search Relations به سؤالاتی درباره ایندکسشدن صفحات وب پرداختند. نکته کلیدی بحث، مفهوم «Index Bloat» بود؛ نظریهای که توجه جامعه سئو را به خود جلب کرده است. در این خبر، جزئیات «Index Bloat»، پاسخ گوگل و پیامدهای آن در سئو را بررسی خواهیم کرد:
نظریه «Index Bloat» از کجا آمد؟
اصطلاح «Index Bloat» وضعیتی را توصیف میکند که در آن رباتهای کرالر، صفحاتی را که برای نتایج جستجو ایدهآل نیستند، ایندکس میکنند. برای مثال، صفحات محصولی که توسط کاربران فیلتر شدهاند یا نتایج جستجوی کاربران داخل سایت. برخی از متخصصان سئو بر این باورند که این تئوری باعث میشود که درک مفهوم سایتها برای رباتهای موتورهای جستجو سختتر شود و بودجه خزش سایت را هدر دهد؛ چراکه زمان و منابع رباتهای جستجو برای اطلاعات غیرضروری مصرف میشود.
پاسخ گوگل به نظریه «Index Bloat»
مولر درباره این نظریه گفت: «سیستمهای ما تعداد صفحات ایندکسشده در هر سایت را محدود نمیکنند و فقط مفیدبودن صفحات سایت شما برای ایندکسشدن اهمیت دارد.»
مولر در ادامه صحبتهای خود اشاره کرد که بهتر است به جای نگرانی در مورد حذف صفحات ایندکسشده از گوگل، زمان خود را صرف انتشار محتوای باکیفیت و مفید کنید. کسانی که از این تئوری حمایت میکنند، معمولا فایلهای robots.txt نادرست یا محتوای ضعیفی دارند و میخواهند با وجود این نظریه، ضعفهای خود را پوشش دهند.
در نهایت گوگل وجود چنین نظریهای را بهصورت رسمی رد میکند و تنها شاخص ایندکس صفحات را کیفیت محتوای آنها میداند. بنابراین اگر صفحهای در سایت شما وجود دارد که با مشکل ایندکس مواجه است، قبل از فکر به این نظریه، محتوای آن صفحه را بازنگری کنید.
در آخرین قسمت پادکست «Search Off The Record» در مورد کنترل میزان تعامل رباتهای گوگل با یک سایت صحبت شد. موضوعات مورد بحث این بود که چگونه Googlebot را از خزیدن در بخشهای خاصی از صفحه مسدود کنیم و چگونه میتوان از دسترسی کامل Googlebot به یک سایت جلوگیری کرد؟
مسدودکردن Googlebot از بخشهای خاص یک صفحه وب
مولر در پاسخ به این که چگونه میتوان از خزیدن رباتهای گوگل در بخشهای خاصی از یک صفحه جلوگیری کرد، گفت: «چنین کاری غیرممکن است. در واقع نمیتوانید خزیدن یک بخش خاص در یک صفحه HTML را مسدود کنید.» البته او به دو راهبرد (HTML data-nosnippet و iframe) برای مقابله با این موضوع نیز اشاره کرد که هیچکدام راهحلهای مناسبی نیستند.
مسدودکردن Googlebot از دسترسی به سایت
در پاسخ به سوالی در مورد جلوگیری از دسترسی Googlebot به سایت، گری ایلز Disallow را به عنوان سادهترین راهحل پیشنهاد کرد.
اخیراً Google SEO Office Hours سؤالی در مورد اینکه آیا هدرهای امنیتی تأثیری در رتبهبندی دارند یا خیر، ارائه شده است. هدرهای امنیتی مانند HSTS نقش مهمی در ایجاد اتصال امن HTTPS دارند و دور از ذهن نیست که در رتبهبندی سایتها نیز تاثیر داشته باشند، اما در ادامه به کمک این خبر بیشتر به این موضوع خواهیم پرداخت:
هدر امنیتی HSTS
هدرهای امنیتی گروه خاصی از هدرها هستند که انواع مختلفی از امنیت را برای محافظت در برابر حملات مخرب مختلف اعمال میکنند و سایت را برای کاربران ایمن نگه میدارند. هدر امنیتی HSTS پاسخی است که به مرورگر میگوید که صفحه وب فقط باید از طریق HTTPS قابل دسترسی باشد، نه از طریق HTTP و از آن میخواهد که دفعه بعد HTTPS را درخواست کند.
استفاده از این هدر بهتر از ریدایرکت ۳۰۱
وقتی مرورگر به سایتی با HTTP دسترسی پیدا میکند و به HTTPS ریدایرکت میشود، دفعه بعد نیز مرورگر به صفحه HTTP دسترسی پیدا کرده و بعد به HTTPS ریدایرکت میشود. در صورتی که با استفاده از هدر HSTS، مرورگر مجبور به پیداکردن صفحه با HTTPS میشود و دیگر به HTTP راهی پیدا نمیکند.
نکته مهم دیگر، آسیبپذیربودن ریدایرکت ۳۰۱ در برابر حمله Man-in-the-Middle است؛ اما هدر HSTS با وادارکردن مرورگر به درخواست صفحه HTTPS که کل سایت را ایمنتر کرده و از بروز این اتفاق جلوگیری میکند. بنابراین، میتوان گفت سایتی که از هدر HSTS استفاده میکند، از نظر HTTPS ایمنتر است.
جان مولر در پاسخ به این سوال که آیا این هدرها در نتایج جستجو و رتبهبندی سایتها نیز اثر دارند یا خیر، گفت: «البته که این هدرها برای امنیت سایتها بسیار مناسب هستند؛ اما در نتایج جستجو تاثیری ندارند. با این وجود بهتر است که تمامی سایتها از شیوههای امنیتی بدون درنظرگرفتن تاثیر آنها در رتبهبندی استفاده کنند.»
مارتین اسپلیت در این خبر به سوالی در مورد تفاوت اعتبارسنجی استراکچر دیتاها در گوگل و Schema.org پاسخ داد: «هم Google و هم Schema.org ابزارهایی را برای تأیید صحت استراکچر دیتاها ارائه میدهند. ابزار گوگل «Rich Results Test» و ابزار اسکیما «Schema Markup Validator» نام دارد.
ابزار گوگل استراکچر دیتاها را تایید میکند و بازخوردی در مورد اینکه آیا استراکچر دیتای آزمایششده برای قسمت ریچ ریزالت (Rich Result) مناسب است یا خیر، ارائه میدهد. از طرف دیگر، ابزار اسکیما بررسی میکند که آیا استراکچر دیتا بر اساس استانداردهای رسمی، معتبر است یا خیر.»
چرا اعتبارسنجی Google با Schema.org متفاوت است؟
در ابتدا به نظر میرسد که اعتبارسنجیها باید از قوانین یکسانی پیروی کنند و نتیجه آنها تفاوتی نداشته باشد. اما نکته اصلی این است که هدف این دو اعتبارسنجی با یکدیگر تفاوت دارد و به همین خاطر، ممکن است در یکی از این اعتبارسنجیها جواب مثبت بگیرید و در دیگری جواب منفی.
میتوان گفت که هدف اعتبارسنجی Google، تنها صحت استراکچر دیتاها نیست و بررسی میکند که آیا این استراکچر دیتا برای نتایج جستجو و کاربران مفید است یا خیر، در حالی که اسکیما فقط از لحاظ صحت و درستی، استراکچر دیتاها را میسنجد و کاری به نتایج جستجو ندارد.
عضویت در خبرنامه
ایمیل خود را وارد کنید تا از جدیدترین اخبار و مقالات حوزه دیجیتال مارکتینگ مطلع شوید.
"*" قسمتهای مورد نیاز را نشان می دهد
تهران، ناحیه نوآوری شریف، خیابان آزادی، نرسیده به دانشگاه شریف، خیابان قدیر، بنبست هفتم، پلاک 1، ساختمان تریبون
کلیه حقوق این سایت محفوظ و متعلق به شرکت تریبون است.