طراحی قالب وردپرس | آموزش های چند رسانه ای
X بستن
سر تیتر خبرها :
نرم افزار موزیلا فایرفاکس | Mozilla Firefox 35.0.1 Final                  نرم افزار Viber Desktop Free Calls & Messages 4.4.0.3                  USB Disk Security 6.4.0.240 + Portable نرم افزار                  بازی Chicken Invaders 5 – Cluck of the Dark Side v5.0                  نرم افزار TeamViewer v9.32                  نرم افزار تانگو برای کامپیوتر | Tango For PC                  نرم افزار بینگ دسکتاپ | Bing Desktop                  نرم افزار MaskMyIp                  نرم افزار لاین برای پی سی | Line For PC                  نرم افزار گوگل درایو | Google Drive                  نرم افزار چت ooVoo Final                  نرم افزار گوگل کروم | Google Chrome                  نرم افزار اولترا کوپیر | UltraCopier                  نرم افزار اسکایپ | Skype                  نرم افزار Google Earth Final                  Microsoft Toolkit نرم افزار                  نرم افزار Microsoft.Net.FrameWork v3.5                  Power Iso | نرم افزار پاور ایزو                  Direct X Final | دایرکت ایکس نسخه ی نهایی                  نرم افزار Folder lock Professional                 
نام نویسنده : نیما بهمن نیا تاریخ : ۹۵/۰۸/۰۳ 1 دیدگاه

دلایل عدم دسترسی گوگل به سایت را در این مقاله از طراحی سایت ، شرح خواهیم داد. دلایل زیادی وجود دارد که دسترسی ربات گوگل به صفحات و یا کل یک سایت محدود و یا کاملا قطع شده باشد. یکی از این دلایل می تواند تنظیمات DNS دامین یا ایجاد مشکلاتی در سرور سایت باشد. این قبیل اتفاقات می‏تواند به Seoی سایت شما آسیب بزند و در موارد بسیاری، موتور جستجوگر و ربات گوگل نتواند صفحات سایت را ایندکس کند.

برای یافتن اینکه آیا در تنظیمات DNSتان مشکلی وجود دارد یا خیر، گوگل در سلسلۀ ابزارهای وبمستر (Webmaster/tools…) به شما کمک خواهد کرد. برای پیدا کردن وجود یک مشکل در بخش DNS سایت خود به صفحه وبمسترتولز خود بروید و از مسیر Crawl، می توانید گزارشی از ۹۰ روز قبل تا کنون را توسط این ابزار و این بخش مشاهده کنید.

این سخنان بدان معناست که سرور هر سایتی ممکن است حتا با توجه به آپتایم ۹۹ درصدی، در مواقعی (حتی دقایقی) با قطعی مواجه شود و یا با تنظیمات اشتباه و دسترسی‏ها و محدودیت‏ها با استفاده از فایل robots.txt، موجب بروز خسارتی چون عدم ایندکس شدن صفحات سایت توسط ربات گوگل گردد که با استفاده از یکی دیگر از امکانات وبمسترتولز یعنی بخش Crawl Errors نیز تا حد قابل توجهی حل شدنیست.

برای رفع این موضوع به بخش Crawl و زیرمنوی Crawl Errors بروید و لیست صفحاتی که به دلیل عدم وجودشان، خطا گرفته و ایندکس نشده اند را در دو نسخۀ وب و گوشی هوشمند، مشاهده نمایید. در ۹۵ درصد از مواقع، این صفحات، صفحاتی هستند که دیگر وجود ندارند و همان خطای معروف ۴۰۴ را با خود به یدک می کشند.

۲ راه برای رفع این مساله وجود دارد: ۱- نشانی های مورد نظر را محتوا دار نموده و سپس Mark as fixed کنیم. ۲- و یا از طریق حذف لینک ها به ۳ روش (که توضیح آن از حوصلۀ این جستار خارج است) از وجود لینک های اضافی در سایت خود جلوگیری کنیم.

سپس می توانید از طریق گزینۀ Fetch as Google تا ۵۰۰ دفعه، دستور دوباره ایندکس شدن صفحۀ اصلی و یا تمام صفحات سایت را وارد کنید تا مجددا گوگل، سایت شما را بازبینی و ایندکس نماید.

تمام اطلاعات در زمینه طراحی سایت را می توانید از بخش مقالات وب سایت شرکت طراحی سایت مبنا مطالعه نمایید.

پاسخ دهید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *


طراحی و کدنویسی : تیم جم لرنر