نمایش نتایج: از شماره 1 تا 9 , از مجموع 9

موضوع: کمک کنید ورد پرس Robot.txt

  1. #1
    عضو جدید
    تاریخ عضویت
    Jul 2013
    نوشته ها
    3
    تشکر تشکر کرده 
    2
    تشکر تشکر شده 
    0
    تشکر شده در
    0 پست

    پیش فرض کمک کنید ورد پرس Robot.txt

    با سلام من تو گوگل وب مستر دچار مشکل شدم چکار کنم درست شود
    تصاویر پیوست شده تصاویر پیوست شده

  2. # ADS




     

  3. #2
    عضو جدید interhost آواتار ها
    تاریخ عضویت
    May 2013
    نوشته ها
    79
    تشکر تشکر کرده 
    69
    تشکر تشکر شده 
    72
    تشکر شده در
    64 پست

    پیش فرض پاسخ : کمک کنید ورد پرس Robot.txt

    با افزونه فکر کنم درست شود
    www.interhost.ir
    هاست 500 مگابیت 3 تومان===هاست 1 گیگ 6 تومان
    هاست 5 گیگ 10 تومان
    ادد کنید : markazdlhelp@yahoo.com

  4. تعداد تشکر ها از interhost به دلیل پست مفید


  5. #3
    عضو انجمن GOD آواتار ها
    تاریخ عضویت
    Dec 2009
    نوشته ها
    581
    تشکر تشکر کرده 
    317
    تشکر تشکر شده 
    1,300
    تشکر شده در
    543 پست

    پیش فرض پاسخ : کمک کنید ورد پرس Robot.txt

    اگه robots.txt نداریم بسازید
    اگه دارید کد داخلش رو بزاری اینجا ببینم
    دنیا که به کار ناکسان راضی شد گوساله بمرد و کره خر قاضی شد

  6. تعداد تشکر ها از GOD به دلیل پست مفید


  7. #4
    عضو جدید
    تاریخ عضویت
    Jul 2013
    نوشته ها
    3
    تشکر تشکر کرده 
    2
    تشکر تشکر شده 
    0
    تشکر شده در
    0 پست

    پیش فرض پاسخ : کمک کنید ورد پرس Robot.txt

    نقل قول نوشته اصلی توسط GOD نمایش پست ها
    اگه robots.txt نداریم بسازید
    اگه دارید کد داخلش رو بزاری اینجا ببینم
    با سلام بفرمایید
    http://mahyarjoon.ir/robots.txt

  8. #5
    عضو انجمن GOD آواتار ها
    تاریخ عضویت
    Dec 2009
    نوشته ها
    581
    تشکر تشکر کرده 
    317
    تشکر تشکر شده 
    1,300
    تشکر شده در
    543 پست

    پیش فرض پاسخ : کمک کنید ورد پرس Robot.txt

    کد:
    User-agent: * Allow: /wp-content/uploads/*.gif Allow: /wp-content/uploads/*.png Allow: /wp-content/uploads/*.jpg Disallow: /wp-admin Disallow: /wp-includes Disallow: /wp-content/plugins Disallow: /wp-content/cache Disallow: /wp-content/themes Disallow: /trackback Disallow: /tag Disallow: /author Disallow: /wget/ Disallow: /httpd/ Disallow: /cgi-bin Disallow: /images/ Disallow: /search Disallow: /feed Disallow: /feed/ Disallow: /trackback/ Disallow: /rss Disallow: /comments/feed Disallow: /feed/$ Disallow: /*/feed/$ Disallow: /*/feed/rss/$ Disallow: /*/trackback/$ Disallow: /useronline/ Disallow: /*/feed/$ Disallow: /*/feed/rss/$ Disallow: /*/trackback/$ Disallow: /*/*/feed/$ Disallow: /*/*/feed/rss/$ Disallow: /*/*/trackback/$ Disallow: /*/*/*/feed/$ Disallow: /*/*/*/feed/rss/$ Disallow: /*/*/*/trackback/$ Disallow: /dl   User-agent: Teleport Disallow: /   User-agent: TeleportPro Disallow: /   User-agent: EmailCollector Disallow: /   User-agent: EmailSiphon Disallow: /   User-agent: WebBandit Disallow: /   User-agent: WebZIP Disallow: /   User-agent: WebReaper Disallow: /   User-agent: WebStripper Disallow: /   User-agent: Web Downloader Disallow: /   User-agent: WebCopier Disallow: /   User-agent: Offline Explorer Pro Disallow: /   User-agent: HTTrack Website Copier Disallow: /   User-agent: Offline Commander Disallow: /   User-agent: Leech Disallow: /   User-agent: WebSnake Disallow: /   User-agent: BlackWidow Disallow: /   User-agent: HTTP Weazel Disallow: /  User-agent: Updownerbot Disallow: /  User-agent: Googlebot-Image Allow: /   User-agent: Googlebot-Mobile Allow: /       # BEGIN XML-SITEMAP-PLUGIN Sitemap: http://mahyarjoon.ir/sitemap.xml # END XML-SITEMAP-PLUGIN
    از این استفاده کنید کامل هست و مشکلی نداره
    دنیا که به کار ناکسان راضی شد گوساله بمرد و کره خر قاضی شد

  9. #6
    عضو جدید
    تاریخ عضویت
    Jul 2013
    نوشته ها
    3
    تشکر تشکر کرده 
    2
    تشکر تشکر شده 
    0
    تشکر شده در
    0 پست

    پیش فرض پاسخ : کمک کنید ورد پرس Robot.txt

    این کد را کجا باید قرار بدم میشه راهنمایی بکنید

  10. #7
    عضو جدید
    تاریخ عضویت
    May 2013
    محل سکونت
    bemanad
    نوشته ها
    73
    تشکر تشکر کرده 
    88
    تشکر تشکر شده 
    36
    تشکر شده در
    28 پست

    پیش فرض پاسخ : کمک کنید ورد پرس Robot.txt

    در

    Robot.txt

    قرار دهید .


  11. تعداد تشکر ها از GrOup به دلیل پست مفید

    GOD

  12. #8
    عضو انجمن GOD آواتار ها
    تاریخ عضویت
    Dec 2009
    نوشته ها
    581
    تشکر تشکر کرده 
    317
    تشکر تشکر شده 
    1,300
    تشکر شده در
    543 پست

    پیش فرض پاسخ : کمک کنید ورد پرس Robot.txt

    نقل قول نوشته اصلی توسط GrOup نمایش پست ها
    در

    Robot.txt

    قرار دهید .
    گفتند دوستمون
    دنیا که به کار ناکسان راضی شد گوساله بمرد و کره خر قاضی شد

  13. #9
    عضو انجمن saeed.spore آواتار ها
    تاریخ عضویت
    Mar 2011
    محل سکونت
    اصفهان نصف جهان
    نوشته ها
    563
    تشکر تشکر کرده 
    570
    تشکر تشکر شده 
    709
    تشکر شده در
    443 پست

    پیش فرض پاسخ : کمک کنید ورد پرس Robot.txt

    سلام بعضی پلایگن مثل google sitemap یا SEO Ultimate به صورت اتوماتیک میسازند ولی خوب از نظر من به این یکم شک دارم چون بعضی فایل ها و فولدر ها که تو گوگل سرچ میشه را مخفی نمی کنند
    پس یه آموزش من استفاده بعضی وقتا می کنم میزارم

    از زمان شکل گیری ابزار ارتباطی نوین به نام اینترنت یا شبکه جهانی، قوانین و قواعدی نیز به همراه آن وضع شد که در بحث بهینه سازی سایت یا سئو (Search Engine Optimization) واضعان آن قواعد و قوانین، عمدتا موتورهای جستجوگر معروفی چون گوگل (google)، بینگ (bing)، یاهو (yahoo) و… بوده اند،

    بدین ترتیب با هم اندیشی توسعه دهنده گان وب و مهندسین این شرکت ها، به تدریج استانداردها و قواعدی برای مدیران سایت ها تدوین شد که یکی از این قواعد، کنترل رفتار ربات های خزنده (bots) موتورهای جستجو به وسلیه ایجاد و تنظیم فایلی به نام robots.txt در ریشه سایت است؛ بدین وسیله می توان تا حدودی رفتار ربات ها را در نحوه جستجو و ایندکس صفحات مدیریت کرد، در ادامه به چگونگی انجام این کار و همچنین بایدها و نبایدهای استفاده از این امکان اشاره خواهیم کرد.
    فایل robots.txt چیست؟

    فایل robots.txt یک فایل متنی ساده است که می توان آن را با هر ویرایشگری ایجاد و با فرمت txt ذخیره نمود، این فایل در ریشه سایت قرار می گیرد (یعنی به طور مستقیم در فولدر wwwroot یا همان public_html و در بالاترین سطح) به طوری که اگر بعد از آدرس سایت، عبارت robots.txt را تایپ کنیم، این فایل در دسترس باشد:

    Example Domain از فایل robots.txt برای مواردی استفاده می شود که نمی خواهیم صفحاتی از سایتمان توسط موتورهای جستجو (ربات های خزنده) بررسی و ایندکس شود، یا ممکن است قبلا این کار صورت گرفته باشد و اکنون می خواهیم آن صفحات را به هر دلیل حذف کنیم، البته استفاده از فایل robots.txt برای حذف لینک ها از نتایج موتورهای جستجو، تنها یک پیش شرط است (شرط لازم است نه کافی!) و برای تکمیل کار، شاید ناچار باشید به ابزار وبمستر سایت هایی مثل گوگل در آدرس:

    https://www.google.com/webmasters/tools و بینگ در آدرس:

    Bing - Webmaster Tools مراجعه کنید.
    با این تفاسیر استفاده از این فایل همیشه هم ضروری نیست و همانطور که گفتیم، در موارد مسدود کردن دسترسی ربات ها به صفحات خاص (لینک های خاص) کاربرد دارد، اما به دلیل اینکه اکثر ربات های جستجوگر همواره این فایل را از سرور شما درخواست می کنند، بهتر است برای اجتناب از افزایش خطاهای ۴۰۴ که در بخش log ها و آمار سایت جلوه خوبی ندارند، حتی شده یک فایل خالی با این نام در ریشه سایت خود قرار دهید.
    نحوه تنظیم فایل robots.txt

    یک فایل robots.txt معمولا از دو قانون ساده پیروی می کند، User-agent یا واسط کاربری (نوع خزنده یا ربات) و Disallow یا لینکی که دسترسی به آن را مسدود (یا مجاز) می کنیم؛ علاوه بر این، به یاد داشته باشید که در ابتدای آدرس دایرکتوری ها، باید از یک اسلش (/) نیز استفاده شود و در استفاده از حروف بزرگ یا کوچک نیز دقت کنید (به فرض دایرکتوری Image در مقایسه با image از دید ربات ها، معمولا دو آدرس متفاوت هستند).
    به طور مثال اگر در فایل خود کد زیر را قرار دهیم:

    User-agent: * Disallow: /image/ ربات ها با پیروی از این قانون، دیگر محتوای فولدر image را بررسی نکرده و در نتایج جستجو آن را نمایش نمی دهند، هنگامی که از علامت * برای واسط کاربری استفاده می کنیم، در واقع منظور ما تمام ربات ها هستند، البته ذکر این نکته لازم است که تنها خزنده های برخی سایت ها و شرکت های معروف و معتبر به این قوانین احترام می گذارند و در مقابل برخی حتی برای ارسال اسپم یا نفوذ به صفحات حساس سایت ها، از این فایل، سوء استفاده نیز می کنند، لذا این نکته دارای اهمیت زیادی است که هیچ گاه برای محافظت از دایرکتوری های حساس، مانند دایرکتوری مدیریت سایت، به این فایل بسنده نکنید (بلکه یک سیستم ورود و خروج مطمئن برای آن در نظر بگیرید) و بهتر است آدرس دایرکتوری مدیریت را نیز در آن قرار ندهید، بهترین روش برای جلوگیری از ایندکس شدن دایرکتوری های حساس، این است که هیچ لینک خروجی و در معرض دید و دسترس ربات در صفحات خود نداشته باشید و از طرف دیگر دسترسی به محتوای این نوع صفحات را با ایجاد سیستم دریافت نام کاربری و کلمه عبور، محدود کنید.
    چند مثال از نحوه استفاده از فایل robots.txt

    برای آشنایی بیشتر و کاربردی تر، در زیر چند مثال با تنظیمات متفاوت را آورده ایم.
    استفاده از فایل robots.txt و مسدود کردن یک فولدر برای تمام ربات ها:

    User-agent: * Disallow: /old-posts/ استفاده از فایل robots.txt و مسدود کردن یک فایل برای تمام ربات ها:

    User-agent: * Disallow: /old-posts/mypic.jpg استفاده از فایل robots.txt و مسدود کردن یک فایل در ریشه سایت برای تمام ربات ها:

    User-agent: * Disallow: /private.html استفاده از فایل robots.txt و مسدود کردن یک فولدر برای یک ربات خاص:

    User-agent: Googlebot Disallow: /personal/ برای دیدن لیست کامل واسط های کاربری (User-agent) می توانید به دیتابیس موجود در آدرس زیر مراجعه کنید:

    http://www.robotstxt.org/db مسدود بودن تمام صفحات برای تمام ربات ها:

    User-agent: * Disallow: / مجاز بودن تمام صفحات برای تمام ربات ها:

    User-agent: * Allow: / تنظیم فایل robots.txt با استفاده از الگو یا Pattern

    علاوه بر ایجاد تنظیمات معمولی، برخی ربات ها (از جمله ربات گوگل) از قوانین پیچیده تری نیز پشتیبانی می کنند، این قوانین بی شباهت به عبارات با قاعده یا Regular Expressions نیستند، با این تفاوت که در اینجا فقط از چند علامت خاص (* ? $) استفاده می شود.
    - برای تطبیق توالی از عبارات، از علامت * استفاده می شود، به طور مثال اگر ما چند دایرکتوری داشته باشیم که با عبارت فرضی book شروع شده باشند و بخواهیم با یک دستور، دسترسی ربات را به تمام آنها مسدود کنیم، خواهیم نوشت:

    User-agent: Googlebot Disallow: /book*/ به این ترتیب فولدرهای فرضی booksell، bookread، bookiran و… برای ربات مسدود خواهند شد، لذا همان طور که ملاحظه می کنید، نقش علامت * این است که در واقع عبارات بعد از آن در تطبیق نادیده گرفته می شوند.
    - برای مسدود کردن لینک های داینامیک از علامت ? و * استفاده می کنیم، به فرض دستور زیر تمام لینک های داینامیک را برای ربات غیر قابل دسترس می کند:

    User-agent: * Disallow: /*? همچنین می توان برای ساب دایرکتوری ها (دایرکتوری های زیر مجموعه) نیز این قابلیت را ایجاد کرد و از این نظر هیچ محدودیتی نیست:

    User-agent: * Disallow: /articles/*? - برای مشخص کردن دقیق انتهای یک الگو، از علامت $ استفاده می شود، به فرض اگر قصد ما مسدود کردن تمام فایل های با پسوند png برای ربات باشد، خواهیم نوشت:

    User-agent: * Disallow: /*.png$ به این ترتیب، تمام فایل هایی که به پسوند png ختم شده باشند، برای ربات مسدود می شوند.
    استفاده ترکیبی از قوانین در فایل robots.txt

    تنظیمات فایل robots.txt به موارد گفته شده محدود نمی شود، شما می توانید برای یک واسط کاربری، چندین و چند آدرس یا دایرکتوری مجاز یا غیر مجاز تعریف کنید، یا با قوانین پیچیده، دستورات پیچیده تری ایجاد نمائید، به فرض در برخی سایت ها ممکن است مقادیر id سشن (session یا نشست) به عنوان بخشی از آدرس صفحه به صورت رندوم در لینک ها قرار داده شود (این موضوع یک اشکال در سئو محسوب شده زیرا موجب بروز مطالب تکراری با لینک های متفاوت می گردد) و در مقابل برخی آدرس ها نیز علامت ? را به طور طبیعی داشته باشند، در اینگونه موارد اگر بخواهیم به ربات بگوییم که به عبارات بعد از علامت ? در لینک های دارای سشن id توجه نکند، ولی لینک هایی را که به علامت ? (بدون وجود کاراکتری بعد از علامت ?) ختم می شوند، ایندکس کند، در یک فایل robots.txt خواهیم نوشت:

    User-agent: * Allow: /*?$ Disallow: /*? به این ترتیب قانون اول اجازه ایندکس تمام آدرس هایی را که نهایتا به علامت ? ختم می شوند می دهد (علامت $ نشان دهنده پایان یک الگو است)، اما قانون دوم باعث نادیده گرفتن سشن id در لینک های داینامیک سایت می شود (در واقع وقتی از علامت $ در انتهای الگو استفاده نمی شود، یعنی هر عبارتی بعد از علامت ? بیاید، شامل آن الگو می شود).
    یا به فرض اگر بخواهیم چند لینک مختلف را در یک دستور مسدود کنیم، خواهیم نوشت:

    User-agent: * Disallow: /articles/22.html Disallow: /articles/23.html Disallow: /articles/?post=159&title=آموزش-برنامه-نویسی-وب افزودن نقشه سایت به فایل robots.txt

    علاوه بر مجاز و مسدود کردن لینک ها، دایرکتوری ها و فایل ها، فایل robots.txt یک قابلیت دیگر نیز دارد، از طریق این فایل می توانید نقشه xml سایت خود را به تمام ربات های خزنده معرفی کنید، برای انجام این کار کافی است با یک فاصله، آدرس کامل نقشه سایت خود را وارد نمائید، به فرض:

    User-agent: * Disallow: /articles/22.html Disallow: /articles/23.html Disallow: /articles/?post=159&title=آموزش-برنامه-نویسی-وب Sitemap: http://webgoo.ir/sitemap.xml سایر روش های مسدود سازی لینک ها برای ربات جستجوگر

    در پایان این مطلب، بد نیست اشاره ای نیز داشته باشیم به سایر روش های مسدود سازی لینک ها و صفحات، بر روی ربات های جستجوگر، علاوه بر استفاده از فایل robots.txt جهت کنترل رفتار خزنده های با اصل و نسب وب، دو روش دیگر نیز برای این کار وجود دارد، روش اول استفاده از متاتگ noindex است که در قسمت head صفحه قرار می گیرد، به فرض:

    <meta name="robots" content="noindex" /> یا

    <meta name="googlebot" content="noindex" /> روش دوم نیز ارسال یک سربرگ HTTP برای ربات ها در هنگامی که صفحه را درخواست می کنند است، انجام این کار در php با استفاده از توابع header و به شکل زیر صورت می گیرد:

    header("X-Robots-Tag: noindex", true); یا

    header("X-Robots-Tag: noindex, nofollow", true);
    خوب بیشتر گروه سئو از این آموزش ها استفاده می کنند
    تبدیل و طراحی قالب ها وردپرس/ WHMCS / جوملا / دیتالایف انجین / نیوک 8.2 و 8.3 / سیستم ها آپلود سنتر
    شماره های تماس : 09398001743 - 09132285902
    تلگرام : https://telegram.me/saeed0pc1


اطلاعات موضوع

کاربرانی که در حال مشاهده این موضوع هستند

در حال حاضر 1 کاربر در حال مشاهده این موضوع است. (0 کاربران و 1 مهمان ها)

موضوعات مشابه

  1. این فایل برای robot وردپرس خوبه ؟
    توسط rezapfcj1 در انجمن Wordpress
    پاسخ ها: 5
    آخرين نوشته: April 5th, 2018, 00:31
  2. پاسخ ها: 0
    آخرين نوشته: June 16th, 2013, 14:01
  3. پاسخ ها: 0
    آخرين نوشته: February 20th, 2013, 17:11
  4. یک راه مناسب برا استفاده از robot.txt
    توسط Vahid در انجمن مباحث و منابع آموزشی
    پاسخ ها: 0
    آخرين نوشته: August 6th, 2008, 23:58

مجوز های ارسال و ویرایش

  • شما نمیتوانید موضوع جدیدی ارسال کنید
  • شما امکان ارسال پاسخ را ندارید
  • شما نمیتوانید فایل پیوست کنید.
  • شما نمیتوانید پست های خود را ویرایش کنید
  •