خزنده وب یا Web crawler به برنامه کامپیوتری میگویند که وب را بازدید کرده و اطلاعات آن را پردازش میکند. درباره خزنده وب بیشتر بدانید.
خزنده وب (WEB CRAWLER) چیست؟
خزنده وب که بیشتر ما آن را با عنوان Web crawler میشناسیم به برنامه کامپیوتری اطلاق میشود که World Wide Web (وب جهان گستر) را به صورت مرتب و سلسله مراتبی بازدید کرده و اطلاعات آن را مورد پردازش قرار میدهد. از Web crawler ها با عناوین دیگری مانند ants ،automatic indexers ،bots ،Web spiders و Web robots نیز یاد میشود.
کاربردهای خزنده وب
1. موتورهای جستجو
موتورهای جستجو و برخی از سایتها دارای خزندهها و یا روباتهایی هستند که برای گردآوری اطلاعات وب سایتها و نیز بروز نگه داشتن اطلاعات مورد استفاده قرار میگیرند. مهمترین کار بعد از گردآوری اطلاعات، ایندکس کردن آنها برای پردازش سریع هنگام جستجو است. این خزندهها معمولا در بازههای زمانی منظمی اطلاعات را بروز کرده و با نسخههای قبلی مقایسه میکنند.
2. مدیریت فنی وب سایت
مدیریت فنی وب سایت بخشی از کار این خزندههاست که شامل یافتن لینکهای شکسته(Broken Link) ، اعتبار سنجی (Validation) کدهای HTML، فایلهای CSS و … میباشد.
3. جمع آوری اطلاعات خاص
کاربرد دیگر خزندههای وب جمع آوری اطلاعات خاصی مانند آدرسهای ایمیل است. معمولا هدف از اینکار ارسال هرزنامه (spam) میباشد. برای جلوگیری از ثبت آدرس ایمیل توسط این خزندهها، میتوانید آدرس ایمیل خود را به صورت saeidREMOVEME AT جیمیل و یا موارد مشابه دیگر بنویسید.
نحوه کار خزنده وب
به صورت عمومی نحوه کار Web crawler ها به این صورت است که ابتدا لیستی از URL ها (آدرس های وب) که به عنوان seed شناخته میشوند را برای بازدید پردازش میکنند. هنگام پردازش این آدرسها، لیست لینکها و آدرسهای موجود در صفحات آنها را گردآوری کرده و به لیست ابتدایی اضافه میکنند. بقیه اطلاعات را نیز با توجه به نیاز و هدف خود ذخیره و پردازش مینمایند.
معماری خزنده وب
خزنده وب بخش اصلی و مرکزی هر موتور جستجویی را تشکیل میدهد. به همین جهت الگوریتم و معماری آنها به شدت مخفی نگه داشته میشود. با این وجود معماری سطح بالای (High-level architecture) آن به شکل زیر میباشد:
عادی کردن آدرس (URL NORMALIZATION)
منظور از عادی کردن آدرس، یکی کردن آدرسهایی میباشد که دارای خروجی یکسانی هستند. هدف از این کار جلوگیری از جمع آوری اطلاعات یکسان از چندین URL است. URL normalization با نام URL canonicalization نیز شناخته میشود که همان فرآیند تغییر آدرس برای استاندارد شدن میباشد.
مراحل فرایند عادی کردن آدرس
HTTP://www.Example.com/ → http://www.example.com/
http://www.example.com → http://www.example.com/
http://www.example.com/default.asp → http://www.example.com/
http://www.example.com/a/index.html → http://www.example.com/a/
http://www.example.com/a%c2%b1b → http://www.example.com/a%C2%B1b
http://www.example.com/bar.html#section1 → http://www.example.com/bar.html
http://208.77.188.166/ → http://www.example.com/
https://www.example.com/ → http://www.example.com/
http://www.example.com:80/bar.html → http://www.example.com/bar.html
http://www.example.com:80/bar.html → http://www.example.com/bar.html
http://www.example.com/../a/b/../c/./d.html → http://www.example.com/a/c/d.html
http://www.example.com/ → http://example.com/
http://www.example.com/display?lang=en&article=fred
→ http://www.example.com/display?article=fred〈=en
http://www.example.com/display?id=123&fakefoo=fakebar
→ http://www.example.com/display?id=123
http://www.example.com/display?id=&sort=ascending
→ http://www.example.com/display
http://www.example.com/display? → http://www.example.com/display
http://www.example.com/display?category=foo/bar+baz
→ http://www.example.com/display?category=foo%2Fbar%20baz
شناسایی خزنده وب
خزندههای وب معمولا با استفاده از فیلد User-agent داده HTTP request خود را معرفی میکنند. شما با استفاده از لاگ وب سرور خود میتوانید لیست این Web crawler ها را مشاهده کنید. فیلدز User agent ممکن است شامل URL ای باشد که به سایت سازنده خزنده اشاره میکند.Spambot ها و سایر خزندههای مخرب معمولا فیلد User agent را به صورت غیر واقعی با اطلاعاتی مانند نام یک مرورگر پر میکنند.
فایل ROBOTS.TXT
این فایل برای دادن اطلاعات اولیه در زمینه وب سایت مورد پردازش به خزندههای وب استفاده میگردد. به عنوان مثال با این فایل میتوانید دسترسی خزندههای وب به بعضی زیر شاخهها را محدود کنید. دستورات زیر در فایل robots.txt از دسترسی خزندهها به دایرکتوری /tmp/ جلوگیری میکند:
(اگر درباره فایل Robot.txt نمیدانید، اینجا کلیک کنید).
User-agent: *
Disallow: /tmp/
نکته: فایل robots.txt یک استاندارد میباشد. به همین جهت خزنده وب (معمولا خزنده مخرب) میتواند آن را نادیده بگیرد.
معروف ترین خزندههای وب غیر آزاد
در زیر لیست معروفترین خزندههای وب را مشاهده میکنید:
معروف ترین خزنده های متن باز
سورس خزنده وب به زبان جاوا
سایت sun در سال ۱۹۹۸ مقالهای آموزشی با عنوان "Writing a Web Crawler in the Java Programming Language” را ارائه داد. در آن مقاله ضمن توضیح دادن Web crawler سورس برنامه آن نیز در اختیار عموم قرار گرفت. البته این برنامه خیلی ساده و در مرحله ابتدایی میباشد. شما باید با توجه به نیازهای خود آن را تغییر داده و مورد استفاده قرار دهید.
گردآوری: مجله اینترنتی ستاره