
با بررسی روی موتورهای جستجو و نحوه کار انها به این صورت است که آنها
از spider که کار بررسی صفحه را بر عهده دارد استفاده میکنند و در صورت
تغییر در محتوا پایگاه داده را به روز مینماید crawler ها نیز که spider ها
را مدیریت میکنند و مشخص میکنند تا کجا spider ها پیش بروند و لینک ها را
را تعقیب کنند و ممکن است لینکی به سایت دیگر باشد که در صورت اینکه در
پایگاه داده وجود نداشته باشد آنرا به روز میکند
برای یافتن سایتهای
جدید باید سایت را به ان معرفی کرد که موتورهای جستجو صفحاتی را برای این
کار دارند که با این کار آدرس سایت وارد برنامه crawler میشود و در زمان
مناسب spider به سایت راه پیدا میکند یا از دایرکتوری های عمده crawler
برای شروع استفاده میکند
در پردازش هایی که در مدل سرویس گرا انجام می شود یک ثبت کننده سرویس که ارتباط بین اراعه دهندگان سرویس و کاربران را ایجاد می کند به عنوان هسته اصلی می باشد
با گسترش اراعه دهندگان سرویس و نرم افزارهایی که از این سرویس ها استفاده میکنند کاربران باید بتوانند سرویس مورد نظر خود را پیدا کنند و اراعه دهنده گان سرویس خود را تبلیغ کنند تا دیگران بتوانند از آن استفاده کنند اما مشکل موجود این است که راهکار و شیوه مناسبی برای کشف سرویس در اینترنت و فعال بودن وجود ندارد .
پرتال های سرویس دایرکتوری در اراعه وب سرویس ها مطابق با استاندارد های اصلی وب سرویس شکست خورده اند به علت غیر قابل اعتماد بودن منابع ،ضمانتی برای فعال بودن سرویس ها وجود ندارد و اکثر غیر فعال هستند، و سرویس ها بدون اینکه دایرکتوری متوجه شود غیر فعال می شوند یا در آنها تغییراتی ایجاد می شود و دایرکتوری ها برای کشف وب سرویس ها وبهبود آن تلاش زیادی می کنند.
ادامه مطلب