نقل قول نوشته اصلی توسط lastwall نمایش پست ها
عرض ادب
شما احتمالا در سایتتون از چند مسیر به پست ها دسترسی دارید و میتونید این دسترسی توسط فایل robot.txt محدود کنید تا گوگل وبستمر به صورت داپلیکیت این ها رو تشخیص نده
برای مثال :
کد:
User-agent: * Disallow: /archive
ممنون !!

اما لینک ها تعدادشون خیلی زیاده و نمیشه ب صورت دستی یکی یکی همه رو تو فایل ربات .txt کپی پیست کرد... ایا راه دیگه ای هست ؟!