افراد زیادی هستند که تصورات غلطی درباره XML Sitemap (نقشه سایت XML) دارند. اگرچه XML Sitemap ابزار قدرتمندی است؛ اما مانند هر ابزار دیگر، نیاز به آموزش و درک عمیق دارد که در این مقاله به آن پرداخته شده است.
این مطلب نیز ممکن است برای شما مفید باشد: سئو (SEO) چیست؟
فهرست سازی
شاید برخی تصور کنند که نقشه سایت XML به فهرست بندی صفحات شما کمک میکند. این تصور کاملاً اشتباه است. زیرا Google صفحات شما را با توجه به درخواست شما ایندکس نمیکند؛ بلکه (الف) آنها را پیدا و crawl کرده است و (ب) آنها را به اندازه کافی با کیفیت دیده است که ارزش ایندکس شدن را داشته باشد. بنابراین نمایش صفحات برای Google تأثیری در فهرست بندی آنها ندارد.
با این حال، ذکر این نکته مهم است که با ارسال XML Sitemap به کنسول جستجوی گوگل، به گوگل سرنخی میدهید که صفحات موجود در آن را به عنوان صفحات با کیفیت و شایسته برای فهرست بندی میدانید. اما، دقت کنید که این فقط یک سرنخ است. مانند پیوند دادن به یک صفحه از منوی اصلی شما.
ثبات
یکی از رایجترین اشتباهاتی که میبینم کاربران مرتکب میشوند این است که در پیامرسانی به Google در مورد یک صفحه خاص، یکنواخت نیستند. اگر صفحهای را در robots.txt مسدود کنید و سپس آن را در نقشه سایت XML قرار دهید، یک عمل کاملاً متناقض انجام دادهاید. زیرا XML Sitemap شما میگوید: "این صفحه باید ایندکس شود." و سپس robots.txt تأثیر آن را از بین میبرد. در مورد meta robotها هم همینطور: صفحه مورد نظر را در نقشه سایت XML قرار ندهید و سپس meta robotها را "noindex,follow" تنظیم نمایید که در آن، "noindex" به معنای عدم فهرست بندی صفحه است و "Nofollow" به این معنی است که "پیوندهای خروجی از آن صفحه را دنبال نکند".
بنابراین، به طور کلی، شما میخواهید هر صفحه در سایت شما در دو دسته قرار گیرد:
- صفحات سودمند (برای کاربران مفید است، اما چیزی نیست که انتظار داشته باشید، صفحه فرود جستجو باشد)
- صفحات فرود جستجوی جالب و با کیفیت بالا
همه چیز در دسته شماره 1 یا باید توسط robots.txt؛ یا از طریق متا روبات "noindex,follow" مسدود شود و بنابراین نباید در XML sitemap باشد.
همه چیز در دسته شماره 2 نباید در robots.txt مسدود شود، نباید متا روبات "noindex" داشته باشد و احتمالاً باید در XML sitemap باشد.
کیفیت کلی سایت
به نظر میرسد که گوگل مقداری از کیفیت کلی سایت را در نظر میگیرد و از این معیار در سطح سایت برای تأثیرگذاری بر رتبه بندی استفاده میکند.
به منظور درک آن باید از دیدگاه گوگل به این موضوع فکر نمایید. فرض کنید یک صفحه عالی پر از محتوای شگفتانگیز دارید. اگر گوگل سایت شما را به عنوان 1000 صفحه محتوا ببیند که تنها 5 تا 6 صفحه آن عالی است. اکنون اگر گوگل کاربری را به یکی از آن صفحات عالی بفرستد، تجربه کاربر با مشاهده محتوا و لینکها چگونه خواهد بود؟ یک لینک در آن صفحه و بازدید از چیز دیگری در سایت شما؟ به احتمال زیاد، آنها در صفحهای قرار میگیرند که بد است. بنابراین چرا گوگل بخواهند کاربر را به چنین سایتی بفرستند؟
مهندسان گوگل مطمئناً میدانند که هر سایتی دارای تعداد معینی از صفحات کاربردی است که برای کاربران مفید است، اما نه لزوماً صفحاتی از نوع محتوایی که باید صفحات فرود از جستجو (صفحاتی برای اشتراکگذاری محتوا با دیگران، پاسخ دادن به نظرات، ورود به سیستم، بازیابی رمز عبور گم شده و غیره) باشند.
اگر نقشه سایت XML شما شامل همه این صفحات باشد، چه چیزی را با گوگل در میان میگذارید؟ بدین صورت شما هیچ سرنخی از اینکه چه محتوایی در سایت شما خوب است و چه چیزی خوب نیست، ارائه نکردهاید.
این تصویری است که میخواهید به جای آن برای Google ترسیم کنید. بله، ما یک سایت با 1000 صفحه داریم که 475 مورد از آن 1000 صفحه، محتوای عالی ما هستند. در این صورت میتوان بقیه را نادیده گرفت.
حال، فرض کنید گوگل آن 475 صفحه را crawl کرده و با معیارهای آن، تصمیم میگیرد که 175 مورد از آنها دارای درجه A و 200 مورد B+ و 100 صفحه را B یا B- در نظر بگیرد. این یک میانگین کلی بسیار خوب است و احتمالاً نشان دهنده یک سایت کاملاً قوی برای ارسال کاربران به آن است.
آن را با سایتی مقایسه نمایید که همه 1000 صفحه را از طریق XML sitemap ارسال میکند. اکنون، گوگل به 1000 صفحهای که از نظر شما عالی هستند، نگاه میکند و میبیند که بیش از 50٪ صفحات "D" یا "F" هستند. به طور متوسط، سایت شما بسیار ضعیف در نظر گرفته میشود و گوگل کاربران را به چنین سایتی نمیفرستد.
اشتباه پنهان
به یاد داشته باشید، Google از آنچه در نقشه سایت XML خود ارسال میکنید، به عنوان سرنخی برای آنچه احتمالاً در سایت شما مهم است استفاده میکند. اما اگر صفحهای در نقشه سایت XML شما وجود نداشته باشد، لزوماً به این معنی نیست که Google آن صفحات را نادیده میگیرد. شما هنوز هم میتوانید هزاران صفحه با محتوا و ارزش لینک کافی برای فهرست بندی داشته باشید.
شما باید تمام صفحاتی را که گوگل از سایت شما ایندکس کرده است، جستجو نمایید تا صفحاتی را که فراموش کردهاید، پیدا نمایید و آنهایی را که از نظر Google در رده متوسط قرار دارند، با تنظیم meta robot برروی "noindex,follow" یا مسدود کردن در robots.txt پاک کنید.
Noindex در مقابل robots.txt
یک تفاوت مهم اما ظریف بین استفاده از meta robot و استفاده از robots.txt برای جلوگیری از فهرست سازی یک صفحه وجود دارد. استفاده از متا رباتهای "noindex,follow" به لینکی که به آن صفحه میرود اجازه میدهد تا به صفحاتی که به آن پیوند داده میشود، جریان پیدا کند و اگر صفحه را با robots.txt مسدود نمایید، مثل این است که آن را در سطل زباله بریزید.
در مثال بالا، صفحاتی را مسدود میکنیم که صفحات واقعی نیستند؛ بلکه آنها اسکریپتها را ردیابی مینمایند. بنابراین ارزش پیوند را از دست نمیدهیم؛ زیرا این صفحات، سرآیند(header)ی با پیوندهای منوی اصلی و ... ندارند.
صفحهای مانند صفحه تماس با ما یا صفحه سیاست حفظ حریم خصوصی را در نظر بگیرید. احتمالاً هر صفحه در سایت شما از طریق منوی اصلی یا منوی پاورقی به آن پیوند داده شده است. بنابراین، حجم زیادی از پیوند به آن صفحات وجود دارد. به نظر شما باید آن را دور بریزید؟ یا ترجیح میدهید اجازه دهید که ارزش پیوند به همه چیز در منوی اصلی شما سرازیر شود؟
مدیریت پهنای باند Crawl کردن
چه زمانی ممکن است بخواهید به جای آن از robots.txt استفاده کنید؟ شاید اگر مشکل پهنای باند crawl کردن را دارید و Googlebot زمان زیادی را صرف واکشی صفحات ابزار (تنها برای کشف متا روباتهای "noindex,follow" در آنها) میکند. اگر تعداد زیادی از این موارد را دارید که باعث میشود Googlebot به صفحات مهم شما نرسد، بهتر است از طریق robots.txt آن را مسدود نمایید.
اگر مجموعهای اصلی از صفحات دارید که در آن محتوا به طور منظم تغییر میکند (مانند وبلاگ، محصولات جدید یا صفحات دسته بندی محصول) و تعداد زیادی صفحه (مانند صفحات تک محصولی) دارید که از نظر SEO با کیفیت است و ارزش فهرست بندی در Google را دارد، اما نه به قیمت crawl کردن مجدد و ایندکس کردن صفحات اصلی، شما میتوانید صفحات اصلی را در یک XML sitemap ارسال کنید تا به گوگل سرنخی بدهید که آنها را مهمتر از صفحاتی که مسدود نشدهاند (ولیکن در sitemap قرار ندادهاید) میدانید.
اشکال زدایی مشکل فهرست سازی
اینجاست که XML sitemap واقعاً برای سئوکاران مفید است: زمانی که شما دستهای از صفحات را برای فهرست سازی به گوگل ارسال میکنید و فقط برخی از آنها واقعاً فهرست سازی میشوند. در آخر نیز کنسول جستجوی گوگل به شما نمیگوید که کدام صفحات فهرست بندی میشوند؛ بلکه تنها یک عدد کلی تعداد صفحات فهرست بندی شده برای هر XML sitemap تعیین میشود.
فرض کنید شما یک سایت تجارت الکترونیک دارید که 100000 صفحه محصول، 5000 صفحه دسته بندی و 20000 صفحه زیرمجموعه دارد. نقشه سایت XML خود را با 125000 صفحه ارسال میکنید و متوجه میشوید که گوگل 87000 صفحه از آنها را ایندکس میکند. اما کدام 87000 صفحه را؟ مشخص نیست!
اول از همه، صفحات دسته و زیر شاخه شما احتمالاً همه اهداف جستجوی مهم برای شما هستند. در اینجا فرض کنید که یک دسته sitemap.xml و یک زیردسته subcategory-sitemap.xml ایجاد کرده و آنها را جداگانه ارسال نمودهایم. انتظار دارید که نزدیک به 100٪ فهرست بندی را در آنجا مشاهده کنید و اگر چنین چیزی را دریافت نکردید، پس میدانید که باید به دنبال ایجاد محتوای بیشتر بر روی آنها، افزایش پیوند به آنها و یا هر دو باشید. ممکن است چیزی مانند صفحههای دستهبندی یا زیرشاخههای محصول را پیدا کنید که فهرست بندی نشدهاند؛ زیرا تنها 1 محصول در خود دارند (یا اصلاً هیچ محصول). در این صورت احتمالاً میخواهید متا رباتها را روی «noindex,follow» تنظیم کرده و آنها را از نقشه سایت XML بیرون بیاورید.
به احتمال زیاد، مشکل در برخی از 100000 صفحه محصول نهفته است، اما کدام یک؟ مشخص نشده است!
این مطلب نیز ممکن است برای شما مفید باشد: فایل Robots.txt
با یک فرضیه شروع کرده و صفحات محصول خود را به XML sitemapهای مختلف تقسیم نمایید تا این فرضیهها را آزمایش کنید. دقت نمایید که شما میتوانید، چندین کار را همزمان انجام دهید و وجود یک URL در چندین نقشه سایت هیچ مشکلی ندارد.
ممکن است با 3 نظریه شروع کنید:
- صفحاتی که تصویر محصول ندارند، فهرست بندی نمیشوند.
- صفحاتی که کمتر از 200 کلمه توصیف منحصر به فرد دارند، فهرست نمیشوند.
- صفحاتی که دارای نظرات کاربران نیستند، فهرست بندی نمیشوند.
یک XML sitemap با تعداد قابل توجهی از صفحات ایجاد کنید که در هر یک از آن دسته بندیها قرار میگیرند. لازم نیست همه صفحات در آن دسته باشد؛ بلکه تنها به اندازهای که حجم نمونه، نتیجه گیری بر اساس فهرست سازی را معقول کند، کافی است. برای مثال ممکن است در هر کدام 100 صفحه قرار دهید.
هدف شما در اینجا این است که از درصد فهرست سازی کلی هر نقشه سایت برای شناسایی ویژگیهای صفحاتی که باعث ایندکس شدن یا ایندکس نشدن آنها میشود، استفاده نمایید.
هنگامیکه متوجه شدید مشکل چیست، شما میتوانید محتوای صفحه (یا پیوندهای صفحهها) را تغییر دهید یا صفحات را فهرستبندی نکنید. برای مثال، ممکن است 20000 صفحه از 100000 صفحه محصول خود را داشته باشید که در آن، توضیحات محصول کمتر از 50 کلمه باشد. اگر این عبارات پربازدید نیستند، احتمالاً ارزش آن را ندارد که تلاش کنید و به صورت دستی 200 کلمه توضیحات اضافی برای هر یک از آن 20000 صفحه بنویسید. شما میتوانید متا رباتها را برای همه صفحاتی که کمتر از 50 کلمه توضیح محصول دارند، برروی «noindex,follow» تنظیم کنید؛ زیرا گوگل به هر حال آنها را ایندکس نمیکند و آنها فقط رتبهبندی کلی کیفیت سایت شما را پایین میآورند. در آخر، فراموش نکنید که آنها را از نقشه سایت XML خود حذف نمایید.
XML sitemap پویا
احتما شما در این فکر هستید که باید نقشه سایت XML خود را به صورت دستی با meta robot خود در تمام 100000 صفحه خود هماهنگ نمایید و به احتمال زیاد این اتفاق نمیافتد.
جواب این است که نیازی به انجام دستی این کار نیست. XML sitemapها نباید فایلهای ثابت باشند. در واقع، آنها حتی نیازی به داشتن پسوند .XML برای ارسال آنها در کنسول جستجوی گوگل ندارند.
در عوض باید منطق قواعدی را تنظیم نمایید که آیا یک صفحه در نقشه سایت XML گنجانده میشود یا خیر، و از همان منطق در خود صفحه برای تنظیم index یا noindex متا روبات استفاده کنید. به این ترتیب، لحظهای که توضیحات محصول بهروزرسانی میشود و از 42 کلمه به 215 کلمه میرسد، آن صفحه در سایت شما به طور جادویی در XML sitemap نشان داده شده و متا روباتها آن را روی «index,follow» تنظیم مینمایند.
منبع:
moz
0 دیدگاه
نوشتن دیدگاه