ג'נגו-רובוטים

יישום הרחקה רובוטים עבור Django, משלימים Sitemaps.
הורד עכשיו

ג'נגו-רובוטים דירוג וסיכום

פרסומת

  • Rating:
  • רישיון:
  • BSD License
  • מחיר:
  • FREE
  • שם המפרסם:
  • Jannis Leidel
  • אתר האינטרנט של המוציא לאור:
  • http://github.com/jezdez/

ג'נגו-רובוטים תגים


ג'נגו-רובוטים תיאור

יישום הרלקת רובוטים עבור Django, משלים Sitemaps. Django-רובוטים הוא יישום בסיסי django לניהול רובוטים קבצים בעקבות פרוטוקול הרלקת רובוטים, משלימים את ה- Django Sitemap לתרום App.the הרלקוטים אי הכללה מורכב של שני מודלים מסד נתונים אשר קשורים יחד עם מערכת יחסים M2M: * כללים * urlsinstallation מקור מאתר היישום בכתובת: http: //code.google.com/p/django-robots/to להתקין את היישום Sitemap, בצע את השלבים הבאים: 1. בצע את ההוראות ב- Install.txt File2. הוסף 'רובוטים' להגדרה Installed_Apps. ודא "django.template.loaders.app_directories.load_template_source" ההגדרה של Template_loaders. זה שם כבר כברירת מחדל, אז אתה רק צריך לשנות את זה אם שינית את ההגדרה. ודא שהתקנת את מסגרת האתרים.ניטיותו להפעיל את דור ה- Robots.txt באתר שלך Django, הוסף שורה זו לכתובת האתר שלך: (R '^ robots.txt $', כוללים ('robots.urls')), זה אומר Django לבנות robots.txt כאשר רובוט ניגש /Robots.txt. לאחר מכן, אנא סנכרן את מסד הנתונים שלך כדי ליצור את השולחנות הדרושים וליצור אובייקטים כלל בממשק מנהל או באמצעות פגז.רולוש - מגדיר כלל מופשט אשר משמש להגיב לרובוטים זחילה, באמצעות פרוטוקול אקיקה של הרובוטים. . אתה יכול לקשר דפוס כתובות מספרים מרובות כדי לאפשר או disallows הרובוט שזוהו על ידי סוכן המשתמש שלה כדי לגשת לשדה עיכוב urls.the זחילה נתמך על ידי כמה מנועי חיפוש ומגדיר את העיכוב בין גישה סורק רצופים תוך שניות. אם שיעור הסורק הוא בעיה עבור השרת שלך, אתה יכול להגדיר את העיכוב של עד 5 או 10 או ערך נוח עבור השרת שלך, אבל זה הציע להתחיל עם ערכים קטנים (0.5-1), ולהגדיל לפי הצורך מקובל ערך עבור השרת שלך. ערכי עיכוב גדולים יותר הוסף עיכוב נוסף בין גישה לסריקה רצופה ולהקטין את קצב הסריקה המקסימלי למסגרת האינטרנט של שרת האינטרנט שלך משמש כדי לאפשר מרובים Robots.txt לכל מקרה Django. אם לא קיים כלל זה באופן אוטומטי מאפשר לכל גישה רובוט אינטרנט לכל URL.Please יש להסתכל על מסד הנתונים של רובוטים אינטרנט עבור רשימה מלאה של רובוטים הקיים סוכן המשתמש STRINGS.URLSURL - מגדיר תבנית כתובת אתר רגישה ומדויקת משמש כדי לאפשר או לא לאפשר את הגישה עבור רובוטים באינטרנט. Case-Sensitive.a חסר נגרר Slash האם גם להתאים קבצים אשר מתחילים עם שם של תבנית נתון, למשל, '/ admin' מנועי חיפוש גדול לאפשר כוכבית (*) כמו תסרוק כדי להתאים כל רצף של תווים סימן דולר ($) כדי להתאים את סוף כתובת האתר, למשל, '/*.jpg$' ניתן להשתמש כדי להתאים את כל הקבצים JPEG.CachingYou יכול אופציונלי מטמון את הדור של robots.txt. הוסף או שנה את ההגדרה של Robots_Cache_Timeout עם ערך תוך שניות בהגדרות Django File: Robots_Cache_timeOut = 60 * 60 * 24THIS מספרת ל- DJango כדי למטמון את robots.txt במשך 24 שעות (86400 שניות). ערך ברירת המחדל הוא לא (ללא מטמון). דרישות: · Django. · פייתון


ג'נגו-רובוטים תוכנה קשורה