|
|
|
|
# 1 |
|
מנהל פורום, עסק רשום
|
אם לא מדובר ברובוטים של ספאם, אז תוכל לנסות להגביל גישה שלהם ע"י robots.txt בתקווה שהרובוט יציית להגבלה.
בצד שרת תוכל לבדוק את ה-header שהם שולחים ולחסום גישה לפיו. |
|
|
|
# 2 | |
|
חבר מתקדם
|
מעדיף - PHP
ציטוט:
תודה על התגובות שלכם
__________________
בברכה יואל מצחיק , צחוקים שידורי ספורט *מוכר דומיינים בתשלום בpaypal, מכל הסוגים! |
|
|
|
|
# 3 |
|
אחראי פורום
|
|
|
|
|
# 4 |
|
מנהל פורום, עסק רשום
|
ב-asp יש אפשרות לקבל כל מיני פרמטרים באמצעות request.servervariables.
תראה דוגמא פה: http://www.4guysfromrolla.com/demos/servervariables.asp אני מניח שב-PHP יש גם משהו דומה כדי לקבל את ה-headers שנשלחים לדפדפן כחלק מהבקשה לדפים שלך. אתה יכול לנסות לסנן לפי ה-USER AGENT שסיכוי טוב שלרובוטים יש משהו מאוד ייחודי ושונה משאר הגולשים. אתה צריך למצא איך אתה יכול לזהות את הרובוט אצלך באתר (מבלי להתבלבל עם שאר הגולשים) ולפי הפרמטר להעיף אותו. |
|
|
|
# 5 | |
|
חבר מתקדם
|
ציטוט:
נסיתי כמה דרכים והכלום
__________________
בברכה יואל מצחיק , צחוקים שידורי ספורט *מוכר דומיינים בתשלום בpaypal, מכל הסוגים! |
|
|
![]() |
| חברים פעילים הצופים באשכול זה: 1 (0 חברים ו- 1 אורחים) | |
|
|