تیتر یکسئو

موتورهای جستجو چطور کار می کنند ؟

برای اینکه بدانید موتورهای جستجو چطور کار می کنند بگذارید کمی توضیح دهیم که اولا یک موتور جستجو چیست و چه کاری انجام می‌دهد؟

“موتور جستجو یک سرویس است که به کاربران اینترنت اجازه می‌دهد تا از طریق وب، محتوا [یی که می‌خواهند را] را جستجو کنند. کاربر کلمه کلیدی یا عبارت کلیدی [مد نظرش] را به یک موتور جستجو می‌دهد و یک لیست از محتویات وب را در قالب وب‌سایت‌ها، تصاویر، فیلم‌ها و دیگر انواع داده‌های آنلاین دریافت می‌کند.” (۱)

 

موتورهای جستجو چطور کار می کنند ؟

خب طبیعی است که بسیاری نمی‌دانند وقتی کلمه‌ای را در باکس سایتی مثل گوگل تایپ می‌کنند و سپس اینتر می‌کنند چه اتفاقی رخ می‌دهد.

به طور کلی می‌شود گفت تمام موتورهای جستجو یک روش سه مرحله‌ای‌ دارند: مدیریت، رتبه‌بندی و نمایش نتایج جستجو.

فرض کنید شبکه جهانی وب مانند شبکه متروی تهران است و هر سایت یک ایستگاه باشد. مترو در ایستگاه‌ها مانند کرم می‌خزد و اطلاعات هر ایستگاه را که شامل متن، عکس، pdf و غیره است ذخیره می‌کند. با این تمثیل بهتر عملکرد موتورهای جستجو را درک خواهید کرد.

در واقع تمام موتورهای جستجو یک روش یکسان‌ دارند: در وب چرخ می‌زنند، همه چیز را کپی می‌کنند، آنها را مرتب می‌کنند، به نحوی آنها را ارزش‌گذاری می‌کنند و در زمان لازم به کاربران نمایش می‌دهند. در زیر ذیل سه مفهوم با نحوه عملکرد موتورهای جستجو آشنا می‌شوید.

 

خزیدن در وب

خزیدن در وب یعنی موتورهای جستجو با استفاده از یک برنامه‌ای که برنامه‌نویسان نویشته‌اند، آنچه در وب جهانی منتشر می‌شود را پیدا می‌کنند. ورود به سایت‌ها و صفحات وب بارها و بارها اتفاق می‌افتد و هرگونه تغییری ثبت و ضبط می‌شود.

برنامه‌هایی که این کار را انجام می‌دهند روبات، کراولر (خزنده) یا اسپایدر (عنکبوت) هستند یا نام دارند. به نظر می‌رسد این برنامه‌ها از طریق لینک بین سایت‌ها و صفحات کار می‌کنند. (اینجاست که اهمیت لینک میان سایت‌ها و صفحات یک سایت مشخص می‌شود)


در این باره بخوانید: لینک سازی چیست؟


ایندکس کردن (نمایه‌سازی)

هنگامی که یک روبات یا کراولر یا اسپایدر در یک صفحه وب می‌خزد (آن صفحه را می‌خواند)، نسخه‌ای را که از آن صفحه ساخته است، برای موتور جستجو می‌فرستد. این اطلاعات در یک مرکز داده (data center) ذخیره می‌شود. مراکز داده مجموعه‌ای عظیم و پبشرفته از سرورها هستند که مخزن نگهداری صفحات کپی‌شده توسط خزنده‌ها هستند. گوگل فقط ده‌ها دیتاسنتر در سراسر جهان دارد، که عموما در ساختمان‌هایی با امنیت بالا نگهداری و محافظت می‌شوند.

این پروسه که صفحات ول توسط خزنده‌ها کپی می‌شوند و توسط موتور جستجو به شکل فهرست در می‌آیند ایندکسینگ (نمایه‌سازی) نام گرفته است. این صفحات کپی‌شده توسط موتورهای جستجو مرتب می‌شوند و زمانی که شما آنها را سرچ می‌کنید برای شما لیست می‌شوند.

 

الگوریتم

در نهایت، یک مجموعه عظیم از کپی صفحات وب وجود دارد که به طور مداوم به روز می‌شوند. اما یک وسیله‌ای یا متر و معیاری وجود دارد که بر اساس آن ارتباط صفحات کپی‌شده با آنچه شما سرچ می‌کنید را می‌سنجد. مثلا وقتی شما در گوگل عبارت «موتورهای جستجو» را سرچ می‌کنید بدیهی است که نباید صفحات مربوط به خرید خانه را به شما نشان دهد. گوگل باید ارتباط صفحات ایندکس‌شده و آنچه شما سرچ می‌کنید را به نجوی درک کند و به شما صفحاتی درست را نشان دهد. اینجاست که «الگوریتم» وارد بازی می‌شود.

اما الگوریتم چیست؟ الگوریتم یک معادله پیچیده و طولانی است که ارزش یا ساده‌تر بگوییم ارتباط صفحات وب با آنچه شما سرچ کرده‌اید را محاسبه می‌کند. ولی خب ما نمی‌دانیم که الگوریتم دقیقا چه فرمولی است، چرا که موتورهای جستجو تمایل دارند این راز را از رقبا و سئوکار‌ها مخفی نگه دارند. اما به طور کلی قوانین و دستورالعمل‌هایی را منتشر کرده‌اند که اگر سایت‌ها آنها را رعایت کنند در صفحه نتایج جستجو رتبۀ بهتری کسب خواهند کرد.

الگوریتم‌ها در واقع به موتور جستجو کمک می‌کنند بهترین نتایج را برای کاربر نمایش دهند. احتمالا شما بعد از خواندن این مقاله یک تصویر کلی از اینکه موتورهای جستجو چطور کار می کنند دارید و با مطالعه و تجربه بیشتر خواهید توانست بهتر این موضوع را درک کنید.

 

 

منابع:

۱- techopedia

۲- business2community

۳- Moz

 

 

حبیب متوسل

مدیر محتوا و متخصص سئو؛ شیفتۀ دنیای وب، سئو و دیجیتال‌مارکتینگ

نوشته های مشابه

پاسخی بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

بستن