اینطور که بنده متوجه شدم، این 100 هزار صفحه، دارای مشکلاتی هستند :
1. دارای خطای 404 هستند که اینگونه دیگر نمی شود بهش گفت صفحه و انتظار ایندکس بودن داشت.
2. دارای " noindex " یا " غیر قابل پیروی " هستند که اینگونه دیگر نمی شود بهش گفت صفحه و انتظار ایندکس بودن داشت.
3. از فایل robots.txt دسترسی به آنها مسدود شده است که اینگونه دیگر نمی شود بهش گفت صفحه و انتظار ایندکس بودن داشت.
خزنده های گوگل، در این صفحات به اصطلاح خزیدند اما به نتیجه ای نرسیدند و به عنوان صفحه نمیشناسنش.
در بحث SEO و این موارد اختلاف نظراتی هست، هر شخصی عقاید و گرایش های خودش رو داره، بنده هم با Ever crawled تا حالا برخورد نداشتم اما تحقیقی که در این چند دقیقه داشتم این نتایج را برای من داشت و منطقی هم هست.





پاسخ با نقل قول