با بررسی روی موتورهای جستجو و نحوه کار انها به این صورت است که آنها از spider که کار بررسی صفحه را بر عهده دارد استفاده میکنند و در صورت تغییر در محتوا پایگاه داده را به روز مینماید crawler ها نیز که spider ها را مدیریت میکنند و مشخص میکنند تا کجا spider ها پیش بروند و لینک ها را را تعقیب کنند و ممکن است لینکی به سایت دیگر باشد که در صورت اینکه در پایگاه داده وجود نداشته باشد آنرا به روز میکند
برای یافتن سایتهای جدید باید سایت را به ان معرفی کرد که موتورهای جستجو صفحاتی را برای این کار دارند که با این کار آدرس سایت وارد برنامه crawler میشود و در زمان مناسب spider به سایت راه پیدا میکند یا از دایرکتوری های عمده crawler برای شروع استفاده میکند

با تحقیقاتی که روی اکثر وب سرویس هایی که امروز در وب موجود هستند انجام دادم برای کشف سرویس در اینترنت اطلاعات وب سرویس ها را می توان از رابط های بازیابی مثل UBR های قابل دسترس، پورتال های سرویس، و موتورهای جستجو بدست اورد
در پردازش هایی که در مدل سرویس گرا انجام می شود یک ثبت کننده سرویس که ارتباط بین اراعه دهندگان سرویس و کاربران را ایجاد می کند به عنوان هسته اصلی می باشد
با گسترش اراعه دهندگان سرویس و نرم افزارهایی که از این سرویس ها استفاده میکنند کاربران باید بتوانند سرویس مورد نظر خود را پیدا کنند و اراعه دهنده گان سرویس خود را تبلیغ کنند تا دیگران بتوانند از آن استفاده کنند اما مشکل موجود این است که راهکار و شیوه مناسبی برای کشف سرویس در اینترنت و فعال بودن وجود ندارد .
پرتال های سرویس دایرکتوری در اراعه وب سرویس ها مطابق با استاندارد های اصلی وب سرویس شکست خورده اند به علت غیر قابل اعتماد بودن منابع ،ضمانتی برای فعال بودن سرویس ها وجود ندارد و اکثر غیر فعال هستند، و سرویس ها بدون اینکه دایرکتوری متوجه شود غیر فعال می شوند یا در آنها تغییراتی ایجاد می شود و دایرکتوری ها برای کشف وب سرویس ها وبهبود آن تلاش زیادی می کنند.
ادامه مطلب