موتورهای جستجو

این تاپیک 0 پاسخ و 1 مشارکت کننده دارد . آخرین آپدیت توسط :  شرکت نرم افزاری داتینه ،‏ 1 سال و 1 ماه پیش .

این تاپیک تاکنون 191 بازدید داشته است .

نویسنده پست
دوشنبه ، 26 اکتبر 2015     1:59 ق.ظ #


شرکت نرم افزاری داتینه

Subscriber
1 پست8 تاپیک

وقتی ما یک چیزی رو در داخل موتور جستجویی مثل گوگل سرچ میکنیم موتور جستجو به دیتا بیس هایی که در سراسر دنیا قرار دارند مراجعه نمیکنه چرا که عملا این کار امکان پذیر نیست بلکه موتور جستجویی مثل گوگل فقط به دیتا بیس یا پایگاه داده خودش مراجعه میکنه و اگر داخل اون دیتابیس اطلاعات مرتبط با سرچ ما رو پیدا کرد به ما نشون میده

و در غیر این صورت چیزی نشون نمیده حال برای اینکه ببینیم اطلاعات موتورهای جستجو به چه شکل تکمیل میشه بایستی توضیحات بیشتری بدیم.

نرم افزاری در موتورهای جستجو نصب هست به عنوان اسپایدر یا روبوت.

کاری که این نرم افزار انجام میده این هست که با استفاده از الگوریتم های خاصی به جمع آوری اطلاعات میپردازه در واقع واژه ی الگوریتم از روی نام دانشمند ایرانی خوارزمی گرفته شده که باعث افتخار ما هم هست.

منظور از الگوریتم مجموعه ای از دستوراتی که یکی پس از دیگری انجام میشه و در نهایت کاری برای ما انجام میده. حال این الگوریتم در دنیای موتورهای جستجو به این شکل هست که با استفاده از پارامترهای خاصی کلیه اطلاعات وب سایت هایی که جدید وارد دنیای وب شدند یا صفحاتی که جدیدا به وب سایت ها اضافه میشن و حتی صفحاتی که آپدیت میشه و اطلاعات جدیدی در اون ها قرار میگیره رو جمع آوری میکننند و اینها رو داخل خود اون موتور جستجو ذخیره میکنند.

الگوریتم های موتور جستجو بسیار محرمانه هستند و هیچ کس از اون ها اطلاعی نداره و روز به روز پیچیده تر و پیشرفته تر میشن.

بعد از اسپایدر حال نوبت به بایگانی کننده ی داده ها و اطلاعات تحت عنوان ایندکسر میرسه کاری که ایندکسر انجام میده این هستش که اطلاعاتی که اسپایدر کسب میکنه رو دریافت و مشخص میکنه که اینها چه اطلاعاتی هستند ، به کدام گروه تعلق دارند ، حجم این اطلاعات چه قدر هست و چه کلمات کلیدی در این اطلاعات وجود داره ، در ضمن مشخص میکنه که هر کلمه کلیدی چند بار داخل اون صفحه تکرار شده علاوه بر این مشخص میشه که کلمات کلیدی در کجای صفحه قرار دارند.

کاره جالب و بسیار پیچیده ای که ایندکسر ها انجام میدن اینه که مشخص میکنن این اطلاعات صفحه ای که از طریق اسپایدر بهشون ارسال شده چه روزی و چه موقعی به روز رسانی شدند تا از اون طریق بتونن مشخص کنند که اطلاعات update تر متعلق به کدام وب سایت ها هستش. در نهایت کلیه صفحات کد گذاری میشه و با استفاده از دستورات خاصی فشرده میشن که دیتا بیس موتور جستجو نخواد خیلی حجم زیادی رو به این اطلاعات اختصاص بده و در اینجا کاره ایندکسر به پایان میرسه .

پس از ایندکسر نوبت به Query processor میرسه. این مرحله تحلیل درخواست و جستجوی کاربرموتور جستجو میرسه. در واقع از این مرحله به بعد موتور جستجو آماده ی پاسخ گویی به نیاز کاربرانش هست. در واقع بعد از اینکه کاربر فیلد مورد نظر خود را در موتور جستجویی مثل گوگل وارد میکنه موتور شروع به گشتن در پایگاه داده مخصوص به خودش میکنه و از اون پس با استفاده از الگوریتم خاصی که محرمانه هست صفحات مرتبط با نیاز کاربر و جستجوی کاربر رو رتبه بندی میکنه و بر اساس میزان ارتباط این صفحات با جستجوی کاربر اون ها رو در ردیف های خاصی قرار میده که این رتبه بندی و قرار دادن صفحات در جایگاهی بر اساس الویت در موتور جستجویی مثل گوگل پیچ رنگ نام داره.

پس از آشنایی مقدماتی با موتور های جستجو و نحوه عملکرد میخوایم meta search Engines رو مورد برسسی قرار بدیم .

به این موتورهای جستجو ابر جستجوگر گفته میشه که سازوکار اونها کاملا با موتورهای جستجوی معمولی مثل گوگل متفاوته.

از جمله این ابر جستجوگر ها میتونیم به

www.mamma.com
www.dogpile.com

www.ixquick.com

کاری که این موتورهای جستجوگر انجام میدن به پایگاه داده دیگر موتورهای جستجو یاهو ، ask یا گوگل و غیره مراجعه میکنند و چنان چه اطلاعات مرتبطی با سرچ کاربر را در اون موتورهای جستجو پیدا کردند بر اساس الگوریتم خاصی اون ها رو رتبه بندی میکنند و به کاربر نشون میدن در واقع موتورهای جستجو اصلا دیتا بیسی ندارند و از دیتا بیس دیگر موتورهای جستجو استفاده میکنند و به نظر میرسه استفاده از ابر جستجوگر ها بتونه نتایجی به مراتب گسترده تری از موتورهای جستجوی معمولی به ما نشون بده.

0  تشکر
پست 1 تا 1 (از مجموع 1 پست)

برای پاسخ دادن به این تاپیک باید وارد سایت شوید .