موتورهای جستجو چگونه کار می کنند؟

برای بالا بردن رتبه سایت در گذشته از نرم افزار های خودکار SEO استفاده می شد .استفاده از این نرم افزارها را در عصر حاضر توصیه نمی کنند .در تعیین مرتبط بودن صفحات وب، صدها فاکتور دخیل هستند . اما در حقیقت فقط به نکات مهم ختم میشود.

  • معیارON PAGE : موردهایی که درباره خودتان در وب سایت مینویسید.
  • معیارOFF PAGE : مواردی که در وب سایتهای دیگر درباره ی شما وبه نقل از وب سایت شما آورده شده است.

این معیار عموما از طریق لینکها محقق میشود. یعنی صاحب یک وب سایت دیگر، به چیزی که در وب سایت شما قرارگرفته است علاقه مند میشود.به این شکل که لینک صفحه ای که به آن علاقه مند شده است را درسایت خودش معرفی می نماید.موتورهای جستجو این کاری که صورت گرفته را به عنوان یک امتیاز به حساب می آورند.بسیاری از مشکلات فنی که مانع کار موتورهای جستجو است توسط SEO رفع میشود.باکمک SEO میتوانید این اطمینان راحاصل کنید که در وب سایت شما همان چیزهایی وجود دارد که کاربران سایت به دنبال آن هستند و به حدی جذاب ومنحصر به فرد است که باعث میشود دیگران تشویق شوند وبه آن لینک دهند. درنتیجه از آغاز کار وب سایت با رعایت اصول سئوی ارگانیک در زمان صرفه جویی زیادی خواهیم داشت.

 

         روش کار موتور جستجو                      

 

                 

 

هنگامی که جستجویی در یک موتور جستجو انجام میگیرد ونتایج آن ارائه میشود، کاربران درحقیقت نتیجه کار بخش های متفاوت موتور جستجو را میبینند.موتور جستجو گر ازقبل پایگاه داده اش را آماده کرده واینگونه نیست که درست درهمان لحظه جستجو، تمام وب رابگردد.GOOGLE و هیچکدام ازموتورهای جستجوگر توانایی این را ندارند که درکمتر از یک ثانیه تمام سایت های وب را بگردند ومیلیون ها صفحه رادر نتایج جستجوی خود نشان دهند همه آنها در زمان پاسخگویی به جستجوهای کاربران، تنها درپایگاه داده ای که در اختیار دارند به جستجو میپردازند ونه در وب!

موتور جستجوگر به کمک بخش های متفاوت خود، اطلاعات مورد نیاز را از قبل جمع آوری و تجزیه تحلیل میکند، آن را در پایگاه داده اش ذخیره کرده وهنگام جستجوی کاربر ازآن استفاده میکند.داشتن اطلاعات کافی از منطق تکنیک ها یادگیری SEO(بهینه سازی سایت برای موتورهای جستجو) را آسان تر وبهتر پیش میبرد.

 

بیشتر بخوانید :   بک لینک و تاثیرش بر سئو سایت 

 

هر موتور جستجو شامل بخش هایی میباشد که عبارتند از:

  • SPIDER(عنکبوت)
  • CRAWLER (خزنده)
  • INDEXER (بایگانی کننده)
  • DATABASE (پایگاه داده)
  • RANKER(سیستم رده بندی)

 

 

SPIDER

 

یک ROBOT میباشد که وظیفه ی آن جمع آوری اطلاعات لازم موتور جستجوگر، همانند یک کاربر اینترنتی است.SPIDERها وظایف متفاوتی را دنبال میکنند، آنها به صفحات مختلف سرمیزنند، محتوای آنها را میخوانند، لینک ها رادنبال میکنند، اطلاعات مورد نیاز را جمع آوری میکنند و آن را به سرور مربوطه انتقال میدهند. دنیای وب از نگاه یک SPIDER اینگونه است که کدهای HTMLصفحات را مشاهده میکنند. کاربرد دیگر BOT این است که به سایت های مختلف مراجعه میکند وفقط این را بررسی میکند که لینک های به کار برده شده فعال هستند یاخیر؟ و یا به دنبال آدرس EMAILمیگردند.

این BOTوقتی به یک صفحه مراجعه میکند بر روی صفحه رد پای خود را برجای میگذارد. اگر کاربر اجازه دسترسی به آمارهای دید و بازدیدها واتفاقات صورت گرفته در یک سایت راداشته باشد میتواند مشخص کند که SPIDERکدام موتور جستجوگر صفحات سایت را مورد بازدید قرار داده است. یکی ازفعالیت های اصلی که در این SEMانجام میشود تحلیل وبررسی این بازدیدها است.

SEM (SEARCH ENGINE MARKETING): SEM یعنی بازاریابی با موتورهای جستجوگرو به تمام فرایندهایی که برای افزایش بینندگان سایت و بالا بردن فروش آن به کمک موتورهای جستجو انجام میشود گفته میشود. درحقیقت SEOبخشی از SEMاست، با این تفاوت که SEO مجموعه ای از روش ها برای تغییر راهبردی وب سایت ها است.این فرایند به بیان مهمترین عوامل مرتبط صفحه وافزایش اهمیت آن در صفحه نتایج جستجو میپردازد.

کارهایی که درSEM انجام میشود عبارتند از:

  1. انتخاب کلمات کلیدی
  2. بررسی وضعیت فعلی سایت و رقبای آن
  3. اصلاح ساختار سایت
  4. تنظیم متاها وعناوین سایت
  5. بهینه سازی سایرپارامترهای سایت
  6. معرفی سایت به موتورهای جستجوگر
  7. افزایش محبوبیت وپیوندهای سایت ومدیریت این فرایند
  8. شرکت دربرنامه هایPFI
  9. تحلیل آمار سایت
  10. بالا بردن رتبه ها(کنترل رتبه ها و اعمال تغییرات مورد نیاز)
  11. انتخاب موتورهای جستجوگر برای سرمایه گذاری برآنها
  12. بهینه سازی اخبارPRESS RELEASE

 

CRAWLER

CRAWLER، هم یکBOT است که به وب سایت ها وارد میشود وهمانند یک فرمانده برای SPIDER عمل میکند.در واقع اینBOT معلوم میکند که SPIDER کدام صفحه را مورد بازدید قرار دهد.CRAWLER مشخص میکند که کدام یک از لینک های صفحه ای که SPIDERدر حال حاضر درآن قرار دارد، دنبال شود.CRAWLERممکن است ازقبل برنامه ریزی شده باشد که طبق برنامه آدرس های خاصی را، در اختیارSPIDER قراردهد تا از آنها بازدید به عمل آورد.CRAWLER یک برنامه است که اطلاعات را جمع آوری میکند. الگوریتم یک فرمول رده بندی شده میباشد که موتورهای جستجو برای تعیین میزان مرتبط بودن صفحات یافته شده توسط CRAWLER از آنها استفاده میکنند. اساس روش کار CRAWLER این است که لینک ها رادنبال کرده واطلاعات را جمع آوری میکند ودر نهایت این اطلاعات را به بانک اطلاعاتی اضافه میکند. به عبارت دیگر CRAWLER صفحات راپیدامیکند، محتوای آنها را بررسی میکند و اطلاعات آنها را در بانک اطلاعاتی شاخص گذاری میکند. صفحات سایت باید به گونه ای طراحی شود که در حد امکان، کار CRAWLER را راحت کند. موتورهای جستجو از یک الگوریتم استفاده میکنند تا مرتبط ترین صفحات را با کلید واژه ی مورد جستجو بیابند. همان طور که ذکر شد الگوریتم نوعی فرمول میباشد. موتورهای جستجو صدها فاکتور را در نظر میگیرند و هرکدام به روش خود برای این فاکتور اهمیت قائلند.

 

 

INDEXER

 

 

یکی ازمهمترین عواملی که درSEO سایت ها باید به آن توجه نمود طریقه ی معلوم کردن(Indexing) موتورهای جستجو میباشد.INDEXER موتورهای جستجو درواقع وظیفه بایگانی کردن اطلاعات صفحات وب سایت های گوناگون رابرعهده دارد.تمام اطلاعاتی که SPIDER جمع آوری میکند در اختیارINDEXER قرار میدهد.اطلاعاتی که دراین بخش ارسال میشود موردموشکافی قرارمیگرد وبه بخش های متفاوتی تقسیم میشوند.موشکافی بدین معنا است که مشخص میشود اطلاعات ارسالی ازکدام صفحه است، دارای چه حجمی است، کلمات موجود درآن کدامند، کلمات چندبار تکرار شده اند و درکجای صفحه قرار دارندو….این اطلاعات پس از موشکافی ومشخص شدن موارد ذکر شده نشانی آنها را مشخص وذخیره میکند.

 

 

DATABASE

تمامی داده هایی که درINDEXER موشکافی شد به پایگاه داده ارسال میگردد.دراین بخش تمامی داده ها گروه بندی، کدگذاری وذخیره میشود.همچنین داده ها قبل از آنکه ذخیره شوند، طبق روش خاصی فشرده میشوند تا حجم کمی از پایگاه داده را اشغال کنند.یک موتور جستجوگر باید پایگاه داده عظیمی داشته باشد و به طور مداوم حجم محتوای آن را گسترش دهد واطلاعاتی که ازقبل داشته را آپدیت نماید.اینکه پایگاه داده به روز و بزرگ باشد برای موتور جستجوگر امتیاز به حساب می آید.درنتیجه موشکافی هایی که درINDEXER انجام شده درنهایت به پایگاه داده ها ارسال میشود واطلاعاتی که گروه بندی، کدگذاری و درنهایت فشرده میشوند درپایگاه عظیم اطلاعات وب سایت موتور جستجو ذخیره میشوند.

 

بیشتر بخوانید : تاثیر شبکه های اجتماعی بر سئو سایت 

 

RANKER

سیستم رتبه بندی قلب تپنده یک موتور جستجوگر است.موتور جستجوگر پس ازآنکه تمام مراحل قبل را انجام داد آماده پاسخگویی به سوالات کاربران است.کاربران کلماتی را درSEARCH BOX(جعبه جستجو) وارد میکنند و پس از فشردن ENTERمنتظر پاسخ می مانند.پس ازفشردن کلید ENTER موتور جستجو باید آماده ی پاسخگویی به درخواست کاربر باشد پس اولین کاری که انجام میدهد این است که تمام صفحاتی که مرتبط با موضوع جستجو شده هستند را مشخص میکند پس ازآن سیستم رده بندی وارد عمل میشود و آنها را ازبیشترین ارتباط تاکمترین ارتباط مرتب میکند وبه عنوان نتایج جستجو به کاربر نمایش میدهد.اگر موتور جستجوگر بهترین و کامل ترین پایگاه داده را دارا باشد اما نتواند پاسخ های مرتبطی را ارائه کند، یک موتور جستجوگر ضعیف خواهدبود.وظیفه RANKER رتبه بندی نمایش وب سایت های مرتبط با جستجوی صورت گرفته توسط کاربر است.در نتیجه هرچقدر اطلاعات و سیستم رتبه بندی دریک موتور جستجو قوی تر باشد نتایج به دست آمده نیز کاربردی تر و دقیق تر خواهد بود.

 

امیدوارم این مقاله توانسته باشد به سوالات شما درباره چگونگی کارکرد موتورهای جستجو  پاسخ داده باشددر صورت داشتن هرگونه سوال  می توانید آن را در قسمت دیدگاهها مطرح کرده تا کارشناسانگروه دیجیتال مارکتینگ بان  به پرسشهای شما پاسخ دهند.

 

 

ارسال پیام

ما با در ارتباط باشید

مشاوران ما 7 روز هفته از 8 صبح الی 5 عصر پاسخگوی شما هستند