Page Rank Google   

از دانشنامه جوملا فارسی - مامبو فارسی
پرش به: ناوبری، جستجو

محتویات

همه چیز درباره Page Rank Google

پیج رنک روش گوگل برای اندازه‌گیری "اهمیت" صفحات است. زمانیکه تمام فاکتورهای دیگر نظیر درصد تکرار کلمات در عنوان صفحه، درصد تعداد تکرار کلمات در متن صفحه، ارزش مکانی کلمات و ... محاسبه شدند، گوگل از‍ پیج رنک برای تنظیم نتایج جستجو، استفاده می‌کند و لذا سایت‏هایی که مهمتر هستند به رده‌های بالاتر می‌آیند.

PageRank تنها قسمتی از مسائل تعیین کننده رتبه در لیست‏های گوگل است.

به طور مثال شواهد نشان داده است که گوگل این روزها به متن موجود در یک href برای تگ <a> اهمیت بیشتری قائل است تا PageRank .

PageRank جزئی از داستان لیست شدن در فهرست گوگل است، تلاش گوگل این است که همواره مربوط ترین نتایج را لیست کند، بزرگترین حسن یک موتور جستجو همین است، برای همین همه چیز در پیج رنک خلاصه نمی‏شود.

چگونه می‌توان PageRank یک صفحه را دانست؟

برای این کار می‌توان تولبار مخصوص گوگل را از آدرس زیر دانلود کنید: http://toolbar.google.com

تولبار گوگل چقدر دقیق است ؟

باید توجه کرد پیج رنکی که گوگل در تولبارش نشان می‏دهد با آنی که عملاً در سیستم رتبه‏بندی‏اش از آن استفاده می‏کند، تفاوت دارد. در حقیقت تولبار گوگل دیر به دیر به روزرسانی می‏گردد و خود گوگل نیز به این موضوع اعتراف کرده است. لذا مدیران سایت‏ها نباید نگران پیج رنک پایین سایت خود در تولبار گوگل باشند زیرا امکان دارد پیج رنک واقعی سایت آنها بیشتر از مقدار نشان داده شده باشد.

همچنین تولبار گوگل‌ در بیان پیج رنک خیلی دقیق نیست. این تولبار دو محدودیت دارد:

تولبار بعضی وقت‏ها حدس می‏زند. اگر کاربر، صفحه‌ای را مشاهده کند که در بایگانی گوگل وجود ندارد، اما صفحه‌ای خیلی نزدیک به آن در بایگانی گوگل وجود دارد، تولبار تخمینی از پیج رنک را نشان می‌دهد.

تولبار تنها جایگزینی از پیج رنک واقعی را نشان می‏دهد. در حالیکه پیج رنک خطی است، گوگل از یک گراف غیر خطی برای نشان دادن آن استفاده کرده است. لذا در تولبار تغییر از PR=2 به PR=3 نیاز به افزایش کمتری دارد، نسبت به حالتی که تغییری از PR=3 به PR=4 انجام گیرد.

تمرکز بیش از حد بر روی پیج رنک برای بالا بردن رتبه‏ها در گوگل بی مورد است. در حقیقت سایت‏ها می‏توانند با بهینه‌سازی صفحات و ارایه محتوای مناسب به رتبه‏‌های مناسبی دست یابند.

پیج رنک واقعی

Real PageRank

Toolbar PageRank

(log base 10)


0 - 10 0

100 - 1,000 1

1,000 - 10,000 2

10,000 - 100,000 3


و به همین ترتیب ادامه دارد...

در ضمن الگوریتم محاسبه پیج رنک یک فرمول کاملا سری می‏‌باشد که گوگل همواره آن‌را مخفی و در فواصل زمانی مختلف آنرا تغییر جزئی می‏دهد که سوء استفاده از آن به حداقل برسد.شما وقتی پیج رنک بالاتری داشته باشید در نتیجه بازدیدکننده بیشتری و در نهایت سایت گرانتری خواهید داشت. حتی خیلی افراد وب‌سایت‏‌ها را با پیج رنکشان مقایسه می‏کنند، به قول آقای حسین شرفی (یکی از بنیانگذاران ژئو در ایران) اگر سایت شما بمنزله خانه شما در دهکده جهانی باشد، سایت‏های با پیج رنک بالا مثل خانه‏هایی که در بالای شهر قرار دارند هستند.

PageRank چگونه محاسبه می‏گردد؟

زمانیکه گوگل، هنوز یک پروژه دانشگاهی بود، طراحان آن، فرمول اصلی خود را در محاسبه پیج رنک بدین‌گونه بیان کردند. البته امکان دارد که آن‌ها دیگر از این فرمول استفاده نکنند، اما امروزه هم به اندازه کافی دقیق به نظر می‏رسد.

"فرض کنیم که صفحه A دارای صفحات T1 تا Tn است که به آن اشاره می‌کنند. d هم یک فاکتور کند کننده ( damping factor ) است که مقداری بین 0 تا 1 دارد. معمولاً برای d مقداری معادل 0.85 انتخاب می‌شود. همچنین C(A) تعداد لینک‏هائی که این صفحه به صفحات دیگر داده است. در این صورت PageRank صفحه A مساوی است با :

PR(A) = (1-d) + d(PR(T1)/C(T1)+...+PR(Tn)/C(Tn))

d یک فاکتور تضعیف است که معمولا برابر هشتاد و پنج صدم در نظر گرفته می‌شود. T1, T2,..., Tn صفحاتی‌اند که به صفحه A لینک داده‌اند. C(T1) نیز تعداد لینک‌هایی است که از صفحه T1، خارج شده است.

دقت کنید که PageRank صفحه Home معمولاً دو نیم برابر صفحات داخلی می‌باشد. بنابراین حالت سلسله‏ای رأی‏ها را برای PageRank در یک صفحه متمرکز می‏کند.

تمامی صفحات تعداد لینک‏‌های مساوی دارند و تمامی صفحات هم PageRank یکسان دارند.


3 اصل مهم برای وبمسترها

  1. اگر صفحه‏ای دارای اهمیت بالائی می‏باشد ، آنرا در بالای مدل سلسله مراتبی قرار دهید.
  2. اگر صفحات سایت شما دارای لینک‏های خروجی زیادی هستند ، سعی کنید لینک‏های داخلی سایت را افزایش دهید تا PageRank صفحات را ثابت نگه دارید.
  3. اگر صفحاتی از سایت شما دارای لینک خروجی نیست ، افزایش تعداد لینک‏های داخلی هیچ تأئیری بر PageRank ندارد. پس دقت کنید که سایت خود را از حالت قابل استفاده خارج نکنید.

اهمیت Site Map

داشتن Site Map به دودلیل مهم است

  1. اگر کاربر URL اشتباه وارد کند ، اکثر سایت‏ها یک صفحه غیر مفید به عنوان "404 Page not found" نمایش می‌دهند. این برای کاربر مأیوس کننده می‏باشد. بهتر است که صفحه این خطا به حالتی تغییر کند که اولا علت خطا را نمایش دهد و ثانیا Site Map را هم نمایش دهد .لینک دادن به Site Map در هر صفحه تعداد لینک‏های داخلی را افزایش می‏دهد و در نتیجه از هدر رفتن آراء بر ای ارتقاء PageRank جلوگیری می‌کند.یک layout خوب برای صفحات وب که شامل document طولانی می‌باشد این است که، آن document را به چند صفحه تقسیم کنیم و بروی صفحات یک Navigator برای رفتن به صفحات بعد و قبل قرار دهیم و همچنین در تمام صفحات هم به صفحه Home یک لینک دهیم.پس می‌توان گفت که : با اضافه کردن تعداد لینک‏های داخلی به سایت خود ، می‏توانید PageRank را به طور مساوی بین صفحات سایت تقسیم کنید.
  2. ولی در مدل سلسله مراتبی می‏توان رأی‏ها را به سمت صفحه Home متمرکز کرد و PageRank آنرا بالا برد. از این روش برخی از سایت‏ها برای بالا بردن PageRank استفاده می‏کنند که اگر ربات‏های گوگل ( Google's robots) متوجه آن شوند به احتمال زیاد از حضور آن سایت‏ها در فهرست‏های گوگل جلوگیری می‏کنند.

بنابراین ، پیشنهاد می‌کنم که از دو روش صحیح زیر برای بالا بردن PageRank سایت خود در گوگل استفاده کنید.

یک سایت بزرگ داشته باشید

سایت‏های بزرگ مانند http://news.bbc.co.uk دارای ده‏ها و شاید صدها نویسنده و ویراستار خبری می‏باشند. هر کدام از صفحات این سایت دارای مطالب جهانی و مهم هستند و تمامی آنها نیز به صفحه Home سایت لینک داده‏اند. بنابراین می‏بینیم که PageRank صفحه Home آن 9 از 10 است.

پس هیچ جایگزینی برای محتوای خوب وجود ندارد!

یک چیز مفید برای ارائه به دیگران داشته باشید

برای مثال سایت Stat counter تنها سایتی است که به غیر از گوگل دارای پیج رنک 10 است. علت این امر خیلی ساده است میلیون‏ها سایت هستند که از خدمات آمارگیری Stat Counter استفاده می‏کنند و در هر کدام از این سایت‏ها باید یک لینک از Stat Counter باشد. پس سایت Stat Conter دارای میلیون‏ها رأی است که باعث می‏شود به پیج رنک دست نیافتنی 10 برسد.

ابزارهای مفید رایگان در اختیار دیگران قرار دهید تا مدیران سایت‏‌ها پس از استفاده از آن با رقبت به سایت شما لینک دهند.

گرفتن لینک از سایت‏های دیگر

بسیاری از مدیران به دلیل آشنا نبودن با پیج رنگ گوگل به هنگام لینک گرفتن یا لینک دادن تنها به صفحات دارای پیج رنک بالا فکر می‏کنند. این تصور اشتباه است، شما اگر مدیر سایتی هستید، به محتوای سایت‏ها بیشتر توجه کنید تا پیج رنک آنها. در حقیقت لینک از یک صفحه مرتبط با پیج رنک کم در بالا رفتن رتبه سایتان بسیار موثر است. اگر درخواست لینکی از یک سایت مرتبط اما با پیج رنک کم از شما می‏شود، آنرا رد نکنید!

روش‏های جستجو در گوگل

اگر می‏خواهید کلمات تایپ شده در جستجو باشند آنها را با فاصله بصورت ساده در کنار هم بنویسید . مانند : سایت طراحی وب

اگر می‏خواهید یکی از کلمات شما حداقل در نتایج باشد بین آنها OR بگذارید . مانند : OR Web Design OR "Pwcent"

اگر بخواهید یک کلمه حتما باشد و همراه با یکی از دو کلمه دیگر بیاید از حالت پرانتز می‏توانید استفاده کنید . مانند :Persian (yahoo OR blog) . این جستجو دو عبارت را جستجو می‏کند : Persian Yahoo و Persian Blog

اگر بخواهید کلمه خاص شما در title صفحه موجود باشد باید از کلمه کلیدی intitle استفاده کنید . مثلاً : intitle: "pwcent web services" اگر بخواهید کلمه‏ای که وارد کرده‏اید بخشی از آدرس url صفحه‏ای باشد از inurl استفاده کنید . مثلاً : inurl: "Persian" این جستجو تمام کلماتی که در آدرس سایت آنها کلمه پرشین موجود باشد را پیدا می‏کند .

اگر می‏خواهید گوگل فقط بدنه متون را جستجو کند از کلمه intext استفاده کنید . مثلا : intext: "access 2000 problems"

اگر می‏خواهید که گوگل فقط در یک سایت خاص دنبال مطلب وارد شده شما بگردد بعد از نوشتن موضوع جستجو از کلمه site به شکل زیر استفاده کنید site:pwcent.net این کد در ادامه جستجوی شما باعث می‌شود تا گوگل بدنبال مقاله مورد نظر شما در سایت pwcent.net بگردد .

اگر شما یک سایت یا وبلاگ دارید و می‏خواهید بدانید چه کسانی لینک سایت شما را در سایت‏شان قرار داده‏اند از کلمه link با آدرس خودتان بشکل زیر استفاده کنید .link:www.pwcent.net

اگر می‌خواهید دنبال فایل‏هایی خاصی که با موضوع شما مرتبط هستند بگردید از کلمه filetype بصورت زیر استفاده کنید . programming vb filetype:pdf این کد جستجو فایل‏های pdf که درباره برنامه‌نویسی vb باشند را به شما نشان می‏دهد .

نکاتی در جستجوی گوگل

  • گوگل حداکثر 10 کلمه را برای جستجو می‏پذیرد و اگر بیشتر باشد از بقیه کلمات صرفنظر می‏کند.
  • گوگل کلمات ربطی ساده مانند a , an , and , the ,of را نادیده می‏گیرد . برای اینکه این کلمات را هم جزو متن کلمات در خواستی شما در نظر بگیرد باید قبل از این کلمات یک علامت بعلاوه + قرار دهید .
  • اگر بخواهید چیزی در جستجوی شما اصلاً نباشد از علامت منفی در کنار آن کلمه خاص استفاده کنید . این حالت برای کدها هم تاثیر دارد. مثلا می‏خواهید کلمه programming را جستجو کنید. اما نمی‏خواهید کلمه web در نتایج جستجوی شما باشد : پس می‌نویسید : programming –web

اگر بخواهیم تعداد نتایج دریک جستجو را مثلاً به صد نتیجه در یک صفحه افزایش دهید از num=100 در متن جستجوی خود استفاده می‏کنیم.

  • براى فراهم سازى نتایج دقیق، گوگل از بند آوردن یا "wildcard" براى حمایت از جستجوهاى خود استفاده نمی‏کند. براى مثال اگر شما "googl" را جستجو کنید نتایج ارایه شونده شامل "googler" یا "googlin" نمی‏شوند.
  • جستجوهاى گوگل حساس به حالت نوشتن (case sensitive)آنها نیست. تمامى کلمات بعد از ورود به حروف کوچک تبدیل می‌‏شوند. براى مثال اگر وارد کنید "GOOGLE" یا "GoOgLe" به عنوان "google" شناخته می‌شود.

اهمیت متن پیوندی

اهمیت متن پیوندی (Anchor text) در بهینه‌سازی سایت‏ها در موتورهای جستجو

گوگل ( و تعداد دیگری از موتورهای جستجو ) صفحات وب سایت‏ها را تحت تاثیر مستقیم متن لینک‏ها (Anchor Text ) به آن صفحات در نتایج جستجو نمایش می‏دهد.

Googlebombs تقریباً آسانترین نمونه‏ها برای پیدا کردن و درک کردن این موضوع است که چگونه متن پیوندی بر SERP یاSearch Engine Result Pages یا همان صفحات نتایج جستجو تأثیر می‏گذارد.

با جستجوی عبارت Miserable failure در گوگل ( در اواخر سال 2005 ) , Googlebomb صفحه بیوگرافی جورج بوش را مدنظر قرار می‌دهد( www.whitehouse.gov/president/gwbbio.html )

به روشنی این مثال قدرت متن پیوندی را نشان می‌‏دهد, چرا که با مشاهده این صفحه در می‏یابید که چنین کلمه‌ای به هیچ‌وجه در این صفحه استفاده نشده است ( نه در متن صفحه , نه در عنوان و ... ) و با تحقیق و تفحص بیشتری می‏توان به این نکته دست یافت که تعداد زیادی از وبلاگ‌نویس‏ها از متن پیوندی miserable failure برای لینک دادن به این صفحه استفاده کرده‌اند.

Google bomb از کارایی ترکیبی یک متن پیوندی با هزاران لینک سود می‌برد. در یک اتفاق مشابه فوق با کلمه Computer و SERP کلمه Computers درگوگل درحال رخ دادن است. از ژانویه 2005 ، با جستجوی کلمه Computer درگوگل سایت http://www.dell.com را به عنوان 10 نتیجه مهم و با جستجوی کلمه کامپیوترها سایت http://www.compaq.com را به عنوان 10 نتیجه مهم رتبه بندی می‌کند. با نگاه کردن به Source این دو صفحه و بررسی استفاده از کلمه کامپیوتر یا کامپیوترها را به ترتیب آشکار می‌کند که متن پیوندی چقدر موثر است ؟  

چگونه به طور موثر از متن پیوندی استفاده کنیم ؟

کاربرد متن پیوندی , محتوایی لینک را به صفحه لینک گیرنده نسبت می‏دهد , به این معنی که اگر شما بتوانید صفحات مرتبط را به هم با متن پیوندی مناسب لینک کنید , آن صفحات در SERP مربوطه شأن خیلی بهتر ظاهر خواهند شد.

اهمیت انتخاب نام دامنه در ژئو

انتخاب کردن نام شرکت و یک نام دامنه (Domain )

همانطورکه شما بعداً پی خواهید برد , لینک‌های وارده ( External Links) به یک وب سایت خیلی مهم هستند , چنانچه که برای دست یابی به یک رتبه ( Rank) بالا در نتایج جستجو این امر کاملاً ضروری است. متن مرتبط با آن لینک‌ها ( به نام متن پیوندی یا Anchor Text) یکی ازمهمترین فاکتورهای بهینه سازی موتور جستجو است که در زمان بهینه کردن یک سایت تصحیح می‌شود.

متن زیر (سرویس‏های بهینه سازی موتورجستجوی pwcent.net ) یک متن پیوندی (Anchor Text ) لینک برای صفحه اصلی این سایت است ( این لینک, لینک copyright سایت می باشد.) < a href=”http://www.pwcent.net/” >Pwcent Web Design < / a >

اگرشما نام دامنه را درست انتخاب نکنید , از آنجائیکه لینک‌های وارده به سایت‌تان ممکن است از متن پیوندی صحیحی برخوردار نباشد، در نتایج جستجوی موتورهای جستجو وضعیت جالبی نخواهید داشت . حال به این فکر کنید که اگر شما یک نام مناسب را برای نام دامنه برگزینید , حتی اگر وب سایتی با متن پیوندی پیوندی (Anchor Text ) صحیحی به شما لینک نداده باشد ( مثلا از URL واقعی استفاده کرده باشد ) به دلیل این که خود نام دامنه شما به اندازه کافی پر مغز و محتوا می‌باشد , باز هم شما در نتایج جستجو رتبه قابل توجهی خواهید داشت.

نام‌‏های تجاری و بهینه سازی موتورجستجو

Zeus Thrones ممکن است برای شرکتی که صندلی‏های توألت با کیفیت تولید می‌کند عالی باشد، اما این نام به مشتریان Online , برای پیدا کردن وب سایت ازطریق موتورهای جستجوی کمک چندانی نمی‌کند، مگر اینکه بودجه تبلیغاتی بزرگی برای اهداف تجاری در نظر گرفته شده باشد.

اگر شما سایتی در مورد بهینه‌سازی موتور جستجو دارید , به طور مثال یک نام دامنه خوب ( برای اهداف بهینه سازی موتور جستجو ) می‏‌توان Search-Engine-Optimization.com را نام برد.

در زمان انتخاب نام تجاری و نام دامنه، بایستی نام‏های تجاری و نام دامنه‏های موجود ملاحظاتی را در نظر گرفت . به طور مثال زمانی که ما می‏خواستیم برای این وب سایت نامی را در نظر بگیریم , حوزه تصمیم گیری ما محدود بود چرا که نام‏های مطلوب و مناسب در اختیار نداشتیم زیرا این نام‏ها در اختیار دیگران بودند.

چرا بعضی از نام دامنه‏ها خط تیره دارند ؟

موتور اصلی جستجوی فعلی ( یعنی همان گوگل ) کلمات اختصاصی و کلیدی در نام دامنه‏ها بدون خط تیره را نمی‌تواند تشخیص دهد !!! به عنوان مثال نام دامنه خط تیره دار http://www.Rss-Reader-Service.com توسط گوگل به عنوان www.Rss Reader Service.com بررسی و اصطلاحاً Spy می‌شود زیرا گوگل نقطه‏ها وخط‌‏های تیره را به عنوان فاصله درنظر می‌گیرد.

ازآنجائیکه گوگل دو نقطه را به عنوان فاصله‏هایی مشاهده می‌کند , باید توجه نمود که نام دامنه‌ای با کلمه کلیدی تکی ( مثل www.keyword.tld ) را تشخیص می‌دهد.

از اینرو در زمان انتخاب نام دامنه باید این نکته را در نظر گرفت.

اگر نام مورد نظر شما با تعدادی کلمات کلیدی همراه است باید توجه کنید که برای بهینه سازی بهتر در موتور جستجو , بهتر است که کلمات کلیدی را توسط خط‏‌های تیره ازهم جدا کنید.

تحلیل ترافیک سایت

بیایید اینگونه فرض کنیم که شما تمام توصیه‏ها را به کار گرفته‌اید، صفحات سایت را بهینه ساخته‌اید، آن‌ها را به موتورهای جستجوگر معرفی کرده‌اید و با تمام عبارت‏های کلیدی در صدر نتایج جستجو قرار گرفته‌اید و آماده دریافت چندین هزار کیلو ترافیک در سایت خود هستید.

اما از کجا می‏دانید که تمام تلاش شما کارایی لازم را داشته است و به هدر نرفته است؟

بسیار خوب! شما باید ترافیک سایت خود را اندازه گیری و تحلیل نمایید. برای این کار راه‏های بسیاری پیش روی دارید. شما می‏توانید از شمارشگرها، خدمات رهگیری کاربران استفاده کنید. آنچه که در این مقاله بدان پرداخته شده است، استفاده از بهترین روش یعنی استفاده از نرم افزارهای تحلیل آمار سایت (Log file analyzer) است.

چرا تحلیل آمار؟

شناسایی رفتار کاربران در سایت برای بالا بردن ROI

شناسایی استراتژی‏هایی که بهتر جواب داده‌اند.

تحلیل رفتار کنونی برای پی‌ریزی استراتژی‏های بعدی سایت

تحلیل‏های فوق، نیاز به تجربه و تخصص دارد و برای هرکس قابل انجام نیست. برای آنکه شما با اصول کلی بیشتر آشنا شوید برخی موارد به اختصار شرح داده می‏شود.

Log file چیست؟

هر بار که بیننده‌ای به سایت شما مراجعه می‏کند از خود رد پایی بر روی سرور سایت شما بر جای می‏گذارد که در این فایل ذخیره می‏گردد. سرور سایت موارد بسیاری را ثبت می‏کند که برخی از آن‌ها عبارتند از: زمان مراجعه کاربر به سایت، صفحاتیکه کاربر مرور کرده است، مدت زمانیکه در کل سایت یا هر صفحه مانده است، از کدام سایت آمده است، از کدام موتور جستجوگر آمده است، چه کلمه‌ای را جستجو کرده است، از چه صفحه از سایت خارج شده است و ...

این فایل‏ها در روت هاستینگ شما در فولدر /Log ذخیره می‌‏شوند.

Page View

تعداد صفحاتی را نشان می‏‌دهد که کاربران سایت مرور کرده‌اند.

Total Page View آمار همگی آنرا و Page View per Visitor یا Average میانگین تعداد صفحه مرور شده در سایت را نشان می‏دهد.

Hit

به هر درخواست فایلی که از سرور می‏شود گفته می‏شود. این فایل‏ها می‏توانند فلش، تصویری، متنی، اجرایی و ... باشند. به عنوان مثال اگر صفحه ای شامل متن و 10 تصویر باشد با مراجعه کاربر به این صفحه یک Page View و یازده Hit بر روی سرور ثبت می‏گردد (یک صفحه + ده عکس از سرور درخواست شده است.)

Unique Visitor

هر بیننده مشخص را نشان می‏کند. این بیننده اگر صد صفحه سایت را هم مرور کند تنها یکبار شمرده می‏شود. این فاکتور بسیار مهم است. برای تبلیغات در سایت‏های دیگر همواره این فاکتور را از صاحب آن سایت درخواست کنید و کنترل کنید که آماری که ارایه می‏دهند، تعداد Page View نباشد.

لاگ فایل‏ها در فایل‏هایی با پسوند log ذخیره می‏شوند که با دانلود آنها می‏توانید کار تحلیل ترافیک سایت را آغاز کنید. در ادامه برخی از موارد ثبت شده در این فایل‏ها توضیح داده می‏شود.

زمان و تاریخ مراجعه به سایت

آدرس IP بیننده یا اسپایدر مراجعه کننده به سایت

name.html

صفحه‌ای است که مشاهده شده است. می‏تواند نام هر فایل درخواست شده نیز باشد.

Get

نشان می‏‌دهد که اطلاعات از سرور درخواست شده است.

Post

بیانگر ارسال اطلاعات به سرور است.

نوع پاسخ سرور

نوع پاسخ سرور می‏تواند از انواع زیر باشد

200 OK

300 Redirects

400 Failure

500 Server Error

  حجم فایل درخواست شده

بیننده از کدام صفحه آمده است.

بیننده از کدام موتور جستجوگر و با چه کلمه‌ای آمده است.

نوع مروگر، سیستم عامل و دقت صفحه نمایش کاربر

نوع اسپایدر مراجعه کننده به سایت

و ...

اما از کدام نرم افزار استفاده کنیم؟

Click Tracks را توصیه می‏کنم که قابلیت‏های مناسبی را ارایه می‏دهد و کار با آن نیز بسیار ساده است.

خدمات آمارگیری گوگل

شرکت گوگل نرم افزار مجانی را ارائه می‌کند که به دارندگان سایت‏های اینترنتی اجازه می‏دهد تحلیل‏های پیشرفته ای بر روی ترافیک کاربران خود انجام دهند.

این نرم افزار همچنین امکان آنرا دارد که تاثیر کمپین‏های تبلیغاتی شرکت‏ها را بر روی فروش آنها تحلیل کند. این نرم افزار که بصورت آنلاین برای عموم قابل استفاده می‌باشد به جز زبان انگلیسی با 16 زبان دیگر قابلت کار دارد و بر اساس تکنولوژی‌ای بنام ارچین (Urchin) که قبلآ توسط گوگل در ماه مارچ معرفی شد، تهیه شده است.

هم اکنون نرم افزار ساده شده Urchin بصورت سرویس Goggle AdWords بصورت مجانی روی وب در اختیار صاحبان سایت‏های اینترنتی که از سرویس تبلیغاتی گوگل استفاده می‏کنند، قرار دارد.

کارشناسان اینترنتی معتقد هستند که نرم افزار جدید گوگل می‏تواند فعالیت نرم افزارهایی مانند Web Trends، Web Side Story و Click Track را تحت الشعاع خود قرار دهد.

شرکت مایکروسافت نیز یک نرم افزار تحلیلی مشابه بنام AdCenter دارد.

خدمات آمارگیری سایت‏‌های دیگر

البته سایت‏هایی هم هستند که بدون نیاز به تحلیل دستی فایل‏های لاگ یه سری اطلاعات خاص را برای شما نمایش می‏دهند برای استفاده از سرویس این چنین سایت‏ها باید لینکی که مخصوص شما است را بعد از عضویت داخل سایتتان کپی کنید.

این روش یک روش ناقص است که می‏تواند فواید زیر را داشته باشد:

نقاط قوت:

  • زمان‏هایی از روز که وقت نمی‏کنید فایل‏های لاگ را از هاست خود دانلود کنید و آنها را تحلیل کنید یکسری از آمار‏های جزیی اما مهم مثل تعداد بازدید کننده را می‏توانید ببینید.
  • یکی دیگر از قابلیت‏ها این است می‏توانید سایت خود را با سایت‏هایی دیگر که در آن سایت ثبت نام کردند مخصوصا رقیب‏های خود مقایسه کنید. یک نمونه از این سایت‏ها www.statcounter.com می‏باشد.

مهمترین تحلیل‏هایی که روی سایت‏ها انجام می‏شوند عبارتند از:

Summary Analysis

سایت چه میزان کاربر جدید و تکراری دارد؟ و ...


Trend analysis

در طول زمان نحوه استفاده کاربران از سایت چگونه تغییر کرده است. آیا کاربران این ماه از ماه قبل بیشتر شده است؟


Page analysis

کدام صفحات (بخش‏های) سایت بیننده بیشتر و کدام صفحات (بخش‏های) آن بیننده کمتر دارند؟


Content analysis

کدام متون و محتوای سایت بیشتر مورد توجه کاربران قرار دارد؟


Path analysis

آیا ساختار ناوبری سایت خوب جواب داده است؟ صفحه دوم کاربر بعد از ورود به صفحه اول سایت چیست؟ مسیر حرکت کاربران در سایت چگونه بوده است؟ کدام مسیرها بیشتر به فعل و انفعالات دلخواه مدیر سایت منتج شده‌اند؟


Entry page analysis

کاربران بیشتر از کدام صفحات وارد سایت می‏شوند؟ یا کدام صفحات بیشتر بیننده به سایت جذب می‏کنند؟


Exit page analysis

صفحات و بخش‏های فراری دهنده کاربران کدامند؟


Visitor analysis

چه نسبتی از کاربران جدید به کاربران تکراری از سایت خرید کرده‌اند؟ و ...


Referral analysis

کدام موتورهای جستجوگر و سایت‏ها بیننده به سایت می‏فرستند؟ کلمات مورد استفاده آنها چه بوده است؟ کدام تبلیغات بهتر جواب داده است؟ و ...


Campaign analysis

بینندگان ناشی از هر استراتژی اجرا شده چه رفتاری در سایت داشته‌اند؟ کدام گروه سفارش بیشتری داده‌اند؟


Demographic analysis

توزیع جغرافیایی کاربران سایت چگونه است؟ کدام گروه زمان بیشتری در سایت سپری کرده‌اند؟


Customer experience analysis

پیوندهای شکسته سایت کدامند؟ درخواست‏های ناقص کدام‏ها بوده‌اند؟ و ...


موتور جستجو چگونه کار می‏کند؟

وقتی جستجویی در یک موتور جستجوگر انجام و نتایج جستجو ارایه می‌شود، کاربران در واقع نتیجه کار بخش‏های متفاوت موتور جستجوگر را می‌بینند. موتور جستجوگر قبلاً پایگاه دادهاش را آماده کرده است و اینگونه نیست که درست در همان لحظه جستجو، تمام وب را بگردد. بسیاری از خود می‌پرسند که چگونه امکان دارد گوگل در کمتر از یک ثانیه تمام سایت‏های وب را بگردد و میلیون‏ها صفحه را در نتایج جستجوی خود ارایه کند؟

نه گوگل و نه هیچ موتور جستجوگر دیگری توانایی انجام این کار را ندارند. همه آنها در زمان پاسخ گویی به کاربران، تنها در پایگاه داده‌ای که در اختیار دارند به جستجو می‌پردازند و نه در وب!

موتور جستجوگر به کمک بخش‏های متفاوت خود، اطلاعات مورد نیاز را قبلاً جمع‌آوری، تجزیه و تحلیل می‌کند و آنرا در پایگاه دادهاش ذخیره می‌نماید و به هنگام جستجوی کاربر تنها در همین پایگاه داده می‏گردد.

بخش‏های مجزای یک موتور جستجوگر

عبارتند از:

  • Spider یا عنکبوت
  • Crawler یا خزنده
  • Indexer یا بایگانی کننده
  • Database یا پایگاه داده
  • Ranker یا سیستم رتبه بندی

Spider (عنکبوت)

اسپایدر یا روبوت (Robot)، نرم افزاری است که کار جمع‌آوری اطلاعات مورد نیاز یک موتور جستجوگر را بر عهده دارد. اسپایدر به صفحات مختلف سر می‌زند، محتوای آنها را می‌خواند، اطلاعات مورد نیاز را جمع‌آوری می‌کند و آنرا در اختیار سایر بخش‏های موتور جستجوگر قرار می‌دهد.

کار یک اسپایدر، بسیار شبیه کار کاربران وب است. همانطور که کاربران، صفحات مختلف را بازدید می‌کنند، اسپایدر هم درست این کار را انجام می‌دهد با این تفاوت که اسپایدر کدهای HTML صفحات را می‌بیند اما کاربران نتیجه حاصل از کنار هم قرار گرفتن این کدها را.

اسپایدر، به هنگام مشاهده صفحات، از خود بر روی سرورها رد پا برجای می‌گذارد. شما اگر اجازه دسترسی به آمار دید و بازدیدهای صورت گرفته از یک سایت و اتفاقات انجام شده در آنرا داشته باشید، می‌توانید مشخص کنید که اسپایدر کدام یک از موتورهای جستجوگر صفحات سایت را مورد بازدید قرار داده‌اند.

یکی از فعالیت‏های اصلی که در SEM انجام می‏شود تحلیل آمار همین دید و بازدیدها می‏باشد.

اسپایدرها کاربردهای دیگری نیز دارند، به عنوان مثال عده‌ای از آنها به سایت‏های مختلف مراجعه می‌کنند و فقط به بررسی فعال بودن لینک‏های آن‌ها می‌پردازند و یا به دنبال آدرس پست الکترونیکی (Email) می‌گردند.

Crawler (خزنده)

کراولر، نرم افزاری است که به عنوان یک فرمانده برای اسپایدر عمل می‌کند. آن مشخص می‌کند که اسپایدر کدام صفحات را مورد بازدید قرار دهد. در واقع کراولر تصمیم می‌گیرد که کدام یک از لینک‏های صفحه‌ای که اسپایدر در حال حاضر در آن قرار دارد، دنبال شود. ممکن است همه آنها را دنبال کند، بعضی‏ها را دنبال کند و یا هیچ کدام را دنبال نکند.

کراولر، ممکن است قبلاً برنامه ریزی شده باشد که آدرس‏های خاصی را طبق برنامه، در اختیار اسپایدر قرار دهد تا از آنها دیدن کند. دنبال کردن لینک‏های یک صفحه به این بستگی دارد که موتور جستجوگر چه حجمی از اطلاعات یک سایت را می‌تواند در پایگاه داده‌اش ذخیره کند و همچنین ممکن است اجازه دسترسی به بعضی از صفحات به موتورهای جستجوگر داده نشده باشد.

شما به عنوان دارنده سایت، همان طور که دوست دارید موتورهای جستجوگر اطلاعات سایت شما را با خود ببرند، می‌توانید آنها را از بعضی از صفحات سایت‌تان دور کنید و اجازه دسترسی به محتوای آن صفحات را به آنها ندهید. تنظیم میزان دسترسی موتورهای جستجوگر به محتوای یک سایت توسط پروتکل Robots انجام می‌شود. به عمل کراولر ، خزش (Crawling) می‌گویند.

Indexer (بایگانی کننده)

تمام اطلاعات جمع آورش شده توسط اسپایدر در اختیار ایندکسر قرار می‌گیرد. در این بخش اطلاعات ارسالی مورد تجزیه و تحلیل قرار می‌گیرند و به بخش‏های متفاوتی تقسیم می‌شوند. تجزیه و تحلیل بدین معنی است که مشخص می‏شود اطلاعات از کدام صفحه ارسال شده است، چه حجمی دارد، کلمات موجود در آن کدام است، کلمات چندبار تکرار شده است، کلمات در کجای صفحه قرار دارند و ... .

در حقیقت ایندکسر، صفحه را به پارامترهای آن خرد می‏کند و تمام این پارامترها را به یک مقیاس عددی تبدیل می‏کند تا سیستم رتبه‌بندی بتواند پارامترهای صفحات مختلف را با هم مقایسه کند.

در زمان تجزیه و تحلیل اطلاعات، ایندکسر برای کاهش حجم داده‏ها از بعضی کلمات که بسیار رایج هستند صرفنظر می کند. کلماتی نظیر a ، an ، the ، www ، is و ... . از این گونه کلمات هستند.

DataBase (پایگاه داده)

تمام داده‏های تجزیه و تحلیل شده در ایندکسر، به پایگاه داده ارسال می‌گردد. در این بخش داده‏ها گروه بندی، کدگذاری و ذخیره می‌شود.

همچنین داده‏ها قبل از آنکه ذخیره شوند، طبق تکنیک‏های خاصی فشرده می‌شوند تا حجم کمی ُاز پایگاه داده را اشغال کنند.

یک موتور جستجوگر باید پایگاده داده عظیمی داشته باشد و به طور مداوم حجم محتوای آنرا گسترش دهد و البته اطلاعات قدیمی را هم به روزرسانی نماید. بزرگی و به روز بودن پایگاه داده یک موتور جستجوگر برای آن امتیاز محسوب می‌گردد. یکی از تفاوت‏های اصلی موتورهای جستجوگر در حجم پایگاه داده آنها و همچنین روش ذخیره سازی داده‏ها در پایگاه داده است.

Ranker (سیستم رتبه بندی)

بعد از آنکه تمام مراحل قبل انجام شد، موتور جستجوگر آماده پاسخ گویی به سوالات کاربران است. کاربران چند کلمه را در جعبه جستجوی (Search Box) آن وارد می‌کنند و سپس با فشردن Enter منتظر پاسخ می‌مانند.

برای پاسخگویی به درخواست کاربر، ابتدا تمام صفحات موجود در پایگاه داده که به موضوع جستجو شده، مرتبط هستند، مشخص می‌شوند. پس از آن سیستم رتبه بندی وارد عمل شده، آنها را از بیشترین ارتباط تا کمترین ارتباط مرتب می کند و به عنوان نتایج جستجو به کاربر نمایش می‏‌دهد.

حتی اگر موتور جستجوگر بهترین و کامل ترین پایگاه داده را داشته باشد اما نتواند پاسخ‏های مرتبطی را ارایه کند، یک موتور جستجوگر ضعیف خواهد بود. در حقیقت سیستم رتبه بندی قلب تپنده یک موتور جستجوگر است و تفاوت اصلی موتورهای جستجوگر در این بخش قرار دارد.

سیستم رتبه بندی برای پاسخ گویی به سوالات کاربران، پارامترهای بسیاری را در نظر می‌گیرد تا بتواند بهترین پاسخ‏ها را در اختیار آنها قرار دارد. حرفه‌ای‏های دنیای SEM به طور خلاصه از آن به Algo (الگوریتم) یاد می‌کنند.

الگوریتم، مجموعه‌ای از دستورالعمل‏ها است که موتور جستجوگر با اعمال آن‌ها بر پارامترهای صفحات موجود در پایگاه داده‌اش، تصمیم می‌گیرد که صفحات مرتبط را چگونه در نتایج جستجو مرتب کند. در حال حاضر قدرتمندترین سیستم رتبه بندی را گوگل در اختیار دارد.

می‌توان با ادغام کردن اسپایدر با کراولر و همچنین ایندکسر با پایگاه داده، موتور جستجوگر را شامل سه بخش زیر دانست که این گونه تقسیم بندی هم درست می‏باشد:

  • کراولر
  • بایگانی
  • سیستم رتبه بندی

برای آنکه تصور درستی از نحوه کار یک موتور جستجوگر داشته باشید داستان نامتعارف زیر را با هم بررسی می‌کنیم.

داستان ما یک شکارچی دارد. او تصمیم به شکار می‏گیرد!

کار کراولر:

او قصد دارد برای شکار به منطقه حفاظت شده ابیورد، واقع در شهرستان درگز (شمالی ترین شهر خراسان بزرگ) برود.

پروتکل Robots :

ابتدا تمام محدودیت‏های موجود برای شکار در این منطقه را بررسی می کند:

  • آیا در این منطقه می‏توان به شکار پرداخت؟
  • کدام حیوانات را می‏توان شکار کرد؟
  • حداکثر تعداد شکار چه میزانی است؟
  • و ... .

فرض می‏کنیم او مجوز شکار یک اورالد (نوعی آهو) را از شکاربانی منطقه دریافت می‌کند.

کار اسپایدر

او اوریالی رعنا را شکار می‌کند و سپس آنرا با خود به منزل می‏برد.

کار ایندکسر

شکار را تکه تکه کرده، گوشت، استخوان، دل و قلوه، کله پاچه و ... آنرا بسته‌بندی می‌کند و بخش‏های زاید شکار را دور می‏ریزد.

کار پایگاه داده

بسته‏های حاصل را درون فریزر قرار داده، ذخیره می‏کند.

کار سیستم رتبه بندی

مهمانان سراغ او می‌آیند و همسر او بسته به ذائقه مهمانان برای آنها غذا طبخ می‌کند. ممکن است عده‌ای کله پاچه، عده‌ای آبگوشت، عده‌ای جگر و ... دوست داشته باشند. پخت غذا طبق سلیقه مهمانان کار سختی است. ممکن است همه آنها آبگوشت بخواهند اما آنها مسلماً بامزه ترین آبگوشت را می‌خواهند!  

نکته‏ها

  • شکارچی می‏توانست برای شکار کبک یا اورالن و یا هر دو به آن منطقه برود همانطور که موتور جستجوگر می‏تواند از سرور سایت شما انواع فایل (عکس، فایل متنی، فایل اجرایی و ...) درخواست کند.
  • غذای خوشمزه را می‏توانید با نتایج جستجوی دقیق و مرتبط مقایسه کنید. اگر شکارچی بهترین شکار را با خود به منزل ببرد اما غذایی خوشمزه و مطابق سلیقه مهمانان طبخ نگردد، تمام زحمات هدر رفته است.
  • به عنوان آخرین نکته این مقاله یادآوری می‏کنم که به شکار اوریالی رعنا آن هم در منطقه حفاظت شده ابیورد، اصلاً فکر نکنید. اما توصیه می‏شود که حتما از طبیعت بکر آن دیدن فرمایید (بدون اسلحه!).

اصطلاحات دنیای جستجوی

برخی از مفاهیم و اصطلاحات دنیای موتور‏های جستجو

Spider

نرم افزاری است که کار جمع‌آوری اطلاعات از صفحات مختلف را بر عهده دارد.

Crawler

نرم افزاری که مسیر حرکت اسپایدر را مشخص می‌کند.

Directory

فهرست. نوعی از موتورهای جستجوگر که پایگاه داده آن توسط ویراستاران تکمیل می‌گردد.

Keyword

به واژه‏های مهم (کلیدی) هر صفحه گفته می‌شود. اما غالباً منظور کلماتی است که دوست داریم با آنها رتبه‏های مناسبی کسب کنیم.

Keyword Density

چگالی کلمه، منظور تعداد دفعات تکرار واژه‏های کلیدی در مقایسه با سایر کلمات متن است.

Keyword Staffing

تکرار یک کلمه به دفعات و پشت سر هم به منظور بالا بردن چگالی کلمه. این کار تقلب محسوب می‏شود.

Tinny Text

نوشتن متن با اندازه‏های بسیار کوچک و ریز به گونه‌ای که کلمات بسیاری بدین ترتیب در یک خط قرار داده می‏شود و به سختی نیز در صفحه قابل رویت هستند. نوشتن مطالب به این صورت، تقلب محسوب است.

Invisible Text

متن نامرئی. منظور استفاده از متن‏های همرنگ با پس زمینه صفحه است. متن‏هایی که از دید کاربران مخفی می‏ماند. به عنوان مثال اگر پس زمینه یک صفحه سیاه است، متن صفحه نیز با رنگ سیاه نوشته می‏شود تا دیده نشود . این نوع متن‏ها از مصادیق تقلب می‏باشند.

Spam

تقلب، به تمام تلاش‏هایی گفته می‌شود که به کمک آن سعی می‌شود از راه‏های غیر معمول، رتبه‏های بالایی کسب شود. یا در اختیار گذاردن اطلاعاتی که موتورهای جستجوگر آنرا دوست ندارند (اطلاعات ناخواسته) مانند تکرار یک کلمه به دفعات و پشت سر هم، استفاده از متن‏های هم رنگ زمینه و ...

ALT tag

محتوای این شناسه، متنی است که یک عکس را توضیح می‌دهد.

Deep Crawl

به معنای این است که موتور جستجوگر، می‌تواند صفحات زیادی از یک سایت را در پایگاه داده‌اش قرار دهد. موتور جستجوگر هرچه پایگاه داده‌اش بزرگتر باشد، صفحات بیشتری از یک سایت را می‏تواند در پایگاه داده‌اش قرار دهد. همه موتورهای جستجوگر دارای این ویژگی نمی‌باشند.

Robots.txt

با این فایل متنی و ساده، میزان دسترسی موتور جستجوگر به محتوای یک سایت را می توان کنترل کرد.

META robots tag

به کمک این شناسه میزان دسترسی موتور جستجوگر به محتوای یک "صفحه" را می‌توان کنترل کرد.

Link

پیوند. در واقع پلی بین دو صفحه است. به کمک آن می‏توان از یک صفحه به صفحه دیگر رفت.

Link Popularity

مقصود این است که چه تعداد از سایت‏های دیگر به سایتی مشخص لینک کرده‌اند یا اینکه از چند سایت دیگر می‏توان به کمک پیوندها به سایتی مشخص رفت.

Link Reputation

اشاره به این دارد که سایر سایت‏ها درباره سایتی که بدان لینک داده‌اند، چه می‌گویند. عموماً در این موارد عنوان، متن لینک و کلمات اطراف لینک در سایت مقصد، بررسی می‌شوند.

Learn Frequency

بعضی از موتورهای جستجوگر می‌توانند تشخیص دهند که محتوای صفحات پس از چه مدتی تغییر می‌کند (به روز می‏گردد) و بعد از آن مدت به آن صفحات مراجعه می‏کنند.

URL-Uniform Resource Locator

به آدرس منحصر به فرد هر منبع موجود در اینترنت گفته می‏شود. این منبع می‏تواند یک صفحه وب، یک فایل متنی و... باشد

Stop Word

به کلماتی گفته می‏شود که در کل اینترنت از آنها بسیار استفاده شده است. کلماتی نظیر the, a, an, web www, home page, و ...

Meta tags

به کمک این شناسه‏ها، اطلاعاتی از صفحه در اختیار بینندگان (موتور جستجوگر، مرورگرها و ...) قرار داده می‌شود.

META Keywords

به کمک آن، کلمات کلیدی صفحه در اختیار موتورهای جستجوگر قرار داده می‏شود.

META Description

به کمک آن، توضیحی مختصر از صفحه در اختیار موتورهای جستجوگر قرار داده می‏شود.

Stemming

به معنای این است که موتور جستجوگر می‌تواند صورت‏های مختلف یک کلمه را جستجو کند. به عنوان مثال با جستجوی swim موتور جستجوگر به دنبال swimmer ، swimming نیز می‌گردد. همه موتورهای جستجوگر دارای این ویژگی نمی‌باشند.

Rank

رتبه یک صفحه در نتایج جستجو است زمانی که جستجویی مرتبط با محتوای آن صفحه انجام می‌شود.

Spamdexing

مختصر شده spam indexing است. منظور طراحی و معرفی صفحاتی به موتورهای جستجوگر است که کیفیت نتایج جستجو را پایین می‌آورند. موتورهای جستجوگر تمایل دارند که کاربران بارها و بارها به آنها مراجعه کنند و کیفیت بالای نتایج می‌تواند این روند را تضمین کند. لذا آنها هرکدام به نوعی سعی در تشخیص صفحاتی دارند که کیفیت نتایج جستجو را پایین می آورد. برخی از این موارد عبارتند از: ساختن صفحاتی که همگی دارای محتوای یکسانی‌اند، تکرار یک کلمه بیش از حد و ...

Comment

توضیحاتی است که طراحان سایت در لا به لای کدهای HTML می‌گنجانند تا برای فهمیدن وظیفه بخش‏های متفاوت کدهای HTML در مراجعات آتی نیازی به صرف وقت بسیار نداشته باشند.


نقشه سایت گوگل Google Sitemap

موتورهای جستجوگر از جمله گوگل از نرم افزاری به نام عنکبوت برای جمع‏آوری اطلاعات وب استفاده می‏کنند. آنها به محض اینکه سایتی را پیدا کردند، متن صفحات را می‏خوانند و لینک‏ها را دنبال می‏کنند. همه مدیران سایت‏ها تلاش می‏کنند تا میزان مراجعه عنکبوت به سایت و زمان حضور آن در سایت خود را افزایش دهند.

با بکارگیری تکنیکی که در زیر معرفی شده است شما می‏توانید با عنکبوت گوگل مهربان‏تر باشید تا شانس حضور موثرتر سایتتان در نتایج جستجوی گوگل افزایش یابد. برای این کار شما فایلی با نام sitemap.xml می‏سازید و در روت سایت خود قرار می‏دهید.


<?xml version="1.0" encoding="UTF-8" ?>
<urlset xmlns="http://www.google.com/schemas/sitemap/0.84">
<url>
<loc>http://www.pwcent.net/index.asp</loc>
<lastmod>2005-12-07T09:00:30-04:00</lastmod>
<changefreq>always</changefreq>
<priority>1.0</priority>
</url>
<url>
<loc>http://www.pwcent.net/learen/Design.asp</loc>
<lastmod>2005-12-07T09:00:30-04:00</lastmod>
<changefreq>always</changefreq>
<priority>0.9</priority>
</url>
<url>
<loc>http://www.pwcent.net/learen/Training.asp</loc>
<lastmod>2005-12-07T09:00:30-04:00</lastmod>
<changefreq>always</changefreq>
<priority>0.9</priority>
</url>
<url>
<loc>http://www.pwcent.net/learen/Shop.asp</loc>
<lastmod>2005-12-07T09:00:30-04:00</lastmod>
<changefreq>always</changefreq>
<priority>0.9</priority>
</url>
<url>
<loc>http://www.pwcent.net/learen/PersianYahooPwcent.asp</loc>
<lastmod>2005-12-07T09:00:30-04:00</lastmod>
<changefreq>always</changefreq>
<priority>0.9</priority>
</url>
</urlset>


<loc> و </loc> آدرس صفحه را مشخص می‏کنند.

<changefreq> و </changefreq> دوره به روزرسانی شدن محتوای صفحه را مشخص می‏کنند. شما می‏توانید ازalways, hourly, daily, weekly, monthly, yearly, never برای این تگ استفاده کنید.

<priority> و </priority> میزان اهمیت هر صفحه در مقایسه با کل صفحات سایت را نشان می‏دهد که عددی بین صفر و یک است. سعی نکنید به همه عدد یک داده شود.

استفاده از تگ‏های <loc> و <urlset> و <url> و اجباری است و بقیه تگ‏ها اختیاری می‏باشند.دقت کنید که تنها موارد مهم در این مقاله ذکر شده است تا از پیچیدگی مطلب کاسته شود.

آدرس چند نمونه دیگر که خیلی ساده آنها را تنظیم کرده‏ام را می‏توانید در آدرس‏های زیر ملاحظه نمایید:

www.irpedia.com/sitemap.xml

www.persianblog.com/sitemap.xml

برای کسب اطلاعات بیشتر حتما به آدرس زیر مراجعه نمایید: https://www.google.com/webmasters/sitemaps/docs/en/about.html

بعد از آنکه سایت مپ سایت شما آماده شد و بر روی سرور سایتتان قرار دادید با مراجعه به آدرس زیر و عضویت در گوگل سایت مپ می‏توانید سایت مپ‏(های) خود را به گوگل معرفی کنید. گوگل مراجعه به آنها و وضعیت هر یک را بعد به شما نشان خواهد داد.

https://www.google.com/webmasters/sitemaps/login  

بهینه سازی صفحات دینامیک

صفحات دینامیک امروزه بسیار محبوب شده‏اند. آنها و پایگاه‏های داده به سایت‏ها قدرت فراوانی ارزانی کرده‏اند. صفحه دینامیک صفحه‏ای است که در پاسخ به درخواست کاربر ساخته می‏شود و بیشتر محتوای آن از یک پایگاه داده فراهم می‏شود.

تنها با انتخاب چند گزینه توسط کاربران صفحه‏ای که مورد نظر وی بوده است، ساخته می‏شود. اینگونه صفحات به کاربران توانایی دسترسی سریع به حجم عظیمی‏از اطلاعات و به مدیران سایت‏ها سرعت و سادگی به روز رسانی اطلاعات را هدیه می‏کنند زیرا تنها اطلاعات پایگاه داده به روز رسانی می‏شود، نه صدها صفحه دیگر!

این صفحات از دیدگاه کاربران فوق العاده هستند اما از دیدگاه موتورهای جستجوگر می‏توانند مشکل زا باشند. اما مشکل چیست؟

گفته شد که برای ساخته شدن این صفحات باید متغیرهایی انتخاب شوند و سپس دکمه ای فشرده شود. مشکل هم در همین جا نهفته است: اسپایدرها توانایی انتخاب این گزینه‏ها را ندارند و لذا صفحه ای ساخته نمی‏شود که آنرا بخوانند.

آدرس اینگونه صفحات اغلب دارای علامت سوال (?) است. همینطور وجود علامت‏های % ، = ، +، $ یا & در یک آدرس می‏تواند بیانگر داینامیک بودن آن باشد. به تمام آنچه که بعد از علامت سوال می‏آید Query String گفته می‏شود.

بسیاری از موتورهای جستجوگر امکان دسترسی به صفحات دینامیک را ندارند، زیرا توانایی فراهم کردن متغیرهای لازم برای ساخته شدن آن صفحات را ندارند.

آیا اگر مستقیماً به صفحات داینامیک لینک داده شود، آیا موتورهای جستجوگر این صفحات را می‏خوانند؟ موتور جستجوگر به هنگام رسیدن به علامت سوال و دیگر علامت‏ها، پرچم زرد احتیاط را بالا می‏برد. اما چرا احتیاط؟

دلایلی که موتورهای جستجوگر با اینگونه آدرس‏ها با احتیاط برخورد می‏کنند

عبارتند از

جلوگیری از بایگانی شدن محتوای یکسان

در سایت‏های داینامیک اغلب اتفاق می‏افتد که محتوایی مشخص، آدرس‏های متفاوتی داشته باشد. کاربران نیز دوست ندارند، صفحاتی با محتوایی یکسان در نتایج جستجو نمایش داده شوند لذا موتورهای جستجوگر برای جلوگیری از این مورد به هنگام برخورد به علامت سوال، احتیاط پیشه می‏کنند.

موتورهای جستجو، در واقع تا قبل از علامت سوال را بایگانی می‏کنند که آدرس صفحه‏ای مشخص خواهد بود هر چند که تمام کاراکترهای بعد از علامت سوال در آن حذف شده است. سایت‏هایی که از Session ID در آدرس‏های صفحات خود بهره می‏گیرند نیز این مشکل را دارند.

موتورهای جستجوگر می‏خواهند نتایج دقیقی را ارایه دهند

موتورهای جستجوگر، پایگاه داده خود را در بازه زمانی مشخصی که معمولاً چهار تا هشت هفته است، به روز رسانی می‏کنند. لذا اتفاق می‏افتد که محتوای صفحه‏ای بعد از اینکه توسط موتور جستجوگر بایگانی شد، تغییر یابد. در صفحات استاتیک محتوای جدید معمولاٌ مرتبط با محتوای قدیم همان صفحه است. اما در صفحات داینامیک اینگونه نیست.

فرض کنید یک سایت فروش کتاب در ماه رمضان، کتاب پیشنهادی ماه به کاربران را یک کتاب مذهبی قرار داده است. بعد از اینکه ماه رمضان سپری شود کتاب پیشنهادی ماه سایت تغییر می‏کند و یک رمان جای آن قرار می‏گیرد. حال اگر موتور جستجوگر این صفحه داینامیک را در ماه رمضان بایگانی کند و بعد از ماه رمضان برای به روز رسانی محتوای جدید آن صفحه مراجعه نکند، کاربرانی را روانه صفحه می‏کند که کتاب مذهبی را جستجو می‏کنند در حالیکه در آن صفحه کتاب رمانی معرفی شده است.

با بایگانی نکردن برخی از صفحات داینامیک، موتورهای جستجوگر از تکرار مواردی مشابه پیشگیری می‏کنند.

جلوگیری از گیر افتادن در پایگاه داده‏ای خاص

ممکن است با بایگانی شده صفحه‏ای از یک سایت، صفحات بی نهایت دیگری به اسپایدر موتور جستجوگر خورانده شود که منجر به از کار افتادن اسپایدر یا اتلاف وقت آن می‏شود. این حالت زمانی اتفاق می‏افتد که حلقه‏ها در برنامه نویسی سایت بسته نشوند (حلقه‏های if یا while).

در حال حاضر بسیاری از موتورهای جستجوگر مشکلی با صفحاتی که تنها دارای یک پارامتر در آدرس خود هستند، ندارند. نمونه‏ای از این آدرس‏ها در زیر آمده است:

mywebsite.com/products.asp?no=20

اما زمانیکه پارامترهای یک آدرس چندین مورد می‏شود، برای موتور جستجوگر تشخیص اینکه آیا آدرس مورد نظر محتوایی غیر تکراری و منحصر بفرد را ارایه می‏دهد، سخت‏تر می‏شود. در یک آدرس داینامیک می‏توان یک صفحه را با چندین پارامتر که از هم به کمک & جدا شده‏اند، نمایش داد. در آدرس زیر که دو پارامتر دارد موتور جستجوگر راهی برای تشخیص اینکه کدام پارامتر یک صفحه جدید را نشان می‏دهد و کدام پارامتر تنها برای مقاصدی دیگری از قبیل دسته بندی اطلاعات و ... به کار رفته است، ندارد:

mysite.com/products.asp?no=20&cat=app

راه حل

بنابراین یک راه مناسب برای طراحی سایت‏هایی داینامیک که مشکلات کمتری با موتورهای جستجوگر دارند، کاهش دادن تعداد پارامترهایی است که در آدرس‏ها به کار می‏روند.

راه‏های دیگر استفاده از صفحات اطلاعاتی، طراحی نسخه‏ای از صفحات مهم داینامیک به صورت استاتیک، اصلاح کاراکترهای آدرس‏های صفحات و حضور در نتایج جستجو به کمک روش‏هایی مانند PFI یا PPC است.

امروزه مقوله بهینه‏سازی سایت‏های فروشگاهی که عمدتاً به صورت داینامیک هستند، بسیار جدی است زیرا اگر این سایت‏ها نتوانند بینندگان قابل ملاحظه‏ای از موتورهای جستجوگر کسب کنند، فروش آنها به میزان زیادی کاهش می‏یابد.

خدمات و ابزار‏های جستجو در وب

موتورهای جستجوگر، با درجات متفاوتی از موفقیت، در واقع یک کار انجام می‏دهند: فراهم آوردن یک وسیله جستجوی ساده برای کمک به کاربران در رسیدن به اطلاعات مورد نیاز.

خدمات جستجویی که در وب ارایه می‏شود به دو گروه اصلی زیر تقسیم بندی می‏گردد:

  1. Search Engine (موتور جستجوگر)
  2. Directory (فهرست)

تفاوت اصلی دو گروه اشاره شده در این است که اطلاعات پایگاه داده گروه اول را نرم افزارها جمع آوری می‏کنند حال آنکه این کار برای گروه دوم توسط انسان‏ها انجام می‏شود.  

Search Engine یا موتور جستجوگر

در حالت کلی زمانی که صحبت از موتور جستجوگر می شود، مقصود، این نوع آن است. در این نوع از موتورهای جستجوگر، کار جمع‏آوری اطلاعات بر عهده اسپایدرها است. اسپایدر نرم افزاری است که کار جمع آوری اطلاعات مورد نیاز یک موتور جستجوگر را بر عهده دارد. پایگاه داده این نوع از موتورهای جستجوگر بزرگتر از سایر انواع است و اطلاعاتی را که آنها ارایه می‏دهند، معمولاً به روزتر می‏باشد.

عملیات به روز رسانی و گسترش اطلاعات پایگاه داده موتور جستجوگر از یک هفته تا چند ماه به طول می‏انجامد. اسپایدرها، هیچ‏گاه از کار نمی‏ایستند و به طور مداوم به جمع‏آوری اطلاعات مشغول هستند. ممکن است اطلاعات جمع‏آوری شده توسط اسپایدرها از صفحات جدید باشد و یا اطلاعات به روز شده از صفحاتی باشد که قبلاً هم به آنها مراجعه کرده‏اند.

زمانیکه صحبت از تکنیک‏های بهینه‏سازی سایت‏ها (SEO) به میان می‏آید در واقع تکنیک‏هایی مطرح‏اند که برای کار با این نوع از موتورهای جستجوگر مؤثرند. بعضی از این نوع موتورهای جستجوگر عبارتند از :


Google, Yahoo, MSN, AllTheWeb, Gigablast, WiseNut, Teoma


Directory یا فهرست

دایرکتوری‏ها اطلاعات را در گروه‏های مختلف دسته بندی می‏کنند. تفاوت اصلی دایرکتوری با یک موتور جستجوگر در این است که دایرکتوری اسپایدر ندارد. دارندگان سایت‏ها به دایرکتوری مراجعه می‏کنند، گروه مناسب برای سایت خود را در آن بر می‏گزینند و سایت خود را به آن گروه معرفی می‏کنند.

پس از آنکه اطلاعات سایت‏ها به گروه‏های مختلف ارسال شد، ویراستاران دایرکتوری آن اطلاعات را بررسی می‏کنند و در صورتی که گروه درخواست شده، با زمینه فعالیت سایت معرفی شده یکی باشد و همچنین سایر قوانین دایرکتوری نیز رعایت شده باشد، سایت را در گروه یاد شده می‏پذیرند.

در صورتی که کاربران استفاده درستی از گروه‏های دایرکتوری بنمایند می‏توانند اطلاعات مفیدی را به کمک آنها کسب کنند.

دایرکتوری از وجود یک سایت مطلع نمی‏گردد مگر زمانی که آن سایت به دایرکتوری معرفی شود. یکی از ایراداتی که به دایرکتوری‏ها وارد می‏شود این است که سایت‏های مرده زیادی در خود دارند. به عبارت دیگر یک سایت بعد از آنکه در یکی از گروه‏های آن قرار گرفته، دیگر به فعالیت خود ادامه نداده است اما با این حال هنوز هم دایرکتوری آنرا به عنوان یک سایت فعال به کاربران معرفی می‏کند.

البته دایرکتوری‏های حرفه‏ای با استخدام ویراستاران خبره تلاش بسیاری برای رفع این نقص و نواقص مشابه می‏نمایند. امکان دارد دایرکتوری‏ها برای بررسی این مورد از اسپایدرها هم کمک بگیرند. در این مورد خاص، کار اسپایدر این است که بررسی کند که آیا سایت‏هایی که قبلاً در گروه‏ها قرار گرفته‏اند، هنوز هم فعال می باشند؟ در مواردی هم امکان دارد که اسپایدرها تغییر زمینه فعالیت سایت‏ها و یا فعال بودن پیوندهای درون صفحات سایت‏ها را بررسی کنند.

قرار گرفتن در پایگاه داده دایرکتورهای عمده، نقش مهمی در کسب رتبه‏های بالا در موتورهای جستجوگر(نوع اول) دارد. دایرکتوری‏های عمده عبارتند از : Yahoo, Look Smart , Dmoz

بعضی از ارایه دهندگان خدمات جستجو در واقع تلفیقی از هر دو گروه می‏باشند به عنوان مثال یاهو هم اسپایدر دارد و هم ویراستار، گوگل نیز از فهرست Dmoz در بخش فهرست خود کمک گرفته است.

اما زیرگروه‏هایی برای دو گروه اصلی خدمات جستجو وجود دارد که هم از دیدگاه کاربران وب و هم از دیدگاه مدیران سایت‏ها حائز اهمیت می‏باشند. این خدمات جستجو عبارتند از:

  • Meta Search Engine (ابر جستجوگر)
  • Pay Per Click Search Engine (رتبه بازای پول)
  • Spcialty Search Engine (موتور جستجوگر خاص)


Meta Search Engine یا ابر جستجوگر

ابرجستجوگر از نتایج سایر موتورهای جستجوگر استفاده می‏کند. کار آن بدین صورت است که سوال کاربر را همزمان به موتورهای جستجوگر مختلفی ارسال می‏کند. پس از دریافت نتایج جستجوی آنها به بررسی نتایج دریافت شده می‏پردازد و در نهایت ترکیبی از رتبه‏های بالای آنها را طبق الگوریتم خود بعنوان نتایج جستجو به کاربر نشان می‏دهد. ابر جستجوگر اسپایدر و پایگاه داده ندارد. برخی از آنها عبارتند از:

Vivisimo, Mamma, IXQuick, WebCrawler, Kartoo, DogPile

Pay-per-Click Search engine یا موتورهای جستجوگر رتبه به ازای پول!

کار آنها بسیار شبیه یک مزایده است: با توجه به واژه کلیدی انتخابی، برای بالاترین رتبه، باید بالاترین قیمت نسبت به سایر متقاضیان پرداخت شود.

در واقع نحوه ارائه نتایج جستجو در PPC به این ترتیب است که اگر سایتی خواهان بالاترین رتبه (رده اول)‌ در نتایج جستجوی آن می‏باشد، باید بالاترین رقم به ازای هرکلیک را نسبت به تمام رقبا بپردازد.

به عنوان مثال اگر سایتی مکان اول را برای عبارت Persian Carpet به قیمت 10 رالب خریده باشد، هر بار که عبارت یاد شده جستجو گردد و بیننده‌ای با دنبال کردن پیوند ارائه شده در نتایج جستجو به سایت مورد نظر برود، دارندگان آن سایت باید 10 رالت به موتور جستجوگر بپردازند. اگر 1000 بیننده این کار را انجام دهند، آنگاه باید 1000×10 رالت، پرداخته شود.

البته این گونه نیست که PPC فقط سایت‏هایی را لیست می‌کند که با آنها قرارداد تجاری بسته است. بلکه ابتدا کلیه سایت‏های طرف قرارداد خود را برای عبارات‌ مورد نظر آن سایت‏ها لیست می‌کند و سپس سایت‏های دیگر را که معمولاً از پایگاه داده سایر موتورهای جستجوگر است، لیست می‌کند.

نمونه‏ای از روش ارایه نتایج جستجوی این نوع از موتورهای جستجوگر را در شکل زیر نشان داده شده است.

سایت‏های رده 110 و 111 برای عبارت free stuff هزینه می‏پردازند که بالاتر از سایت‏های قرار گرفته در رتبه‏های 112 و 113 ایستاده‏اند.

به عبارت‏های sponsored listing و additional listing توجه نمایید. خیلی دوست دارم نام "موتورهای جستجوگر پولکی" به این نوع از موتورهای جستجوگر داده شود! در این مورد می‌توان به Overture و Findwhat اشاره کرد.

فواید این سایت‏ها :

  1. دارنده سایت تنها زمانی پول می‏پردازد که واقعاً بیننده‏ای به سایت او بیاید.
  2. سایت تقریباً در عرض چند ساعت و یا حداکثر یک هفته در نتایج جستجو قرار می‏گیرد و دیگر نیازی به چندین ماه انتظار نیست تا در نتایج جستجوی سایر موتورهای جستجوگر قرار گیرد که آن هم معلوم نیست دارای چه رتبه‏ای خواهند بود.
  3. سایتی اگر بالاترین رتبه را می‏خواهد، کافی است که بالاترین قیمت را بپردازد و دیگر نیازی به کاربرد تکنیک‏های رایج برای کسب رتبه‏های بالا نیست.
  4. چون اینگونه سایت‏ها معمولاً به صورت شبکه‏ای از سایت‏ها فعالیت می‏کنند، یک سایت با استفاده از سیستم آنها در نتایج جستجوی موتورهای جستجوگر دیگر که دارای شراکت تجاری با آنها هستند هم قرار می‏گیرد. به عنوان مثال اورچر، یاهو و آلتاویستا در یک شبکه هستند.


Specialty Search Engine یا موتورهای جستجوگر خاص

این نوع از موتورهای جستجوگر بر موضوعی خاص تمرکز دارند و تنها سایت‏های مرتبط با آن موضوع را در پایگاه داده خود قرار می‏دهند. به عنوان مثال یکی از آنها ممکن است تنها سایت‏های ایرانی را بپذیرد و موضوع فعالیتش سایت‏های ایرانی باشد.

این موتور‌های جستجوگر اطلاعات تخصصی‌تری را ارائه می‌دهند زیرا معمولاً توسط افراد متخصص در آن زمینه اداره می‏شوند. موتورهای جستجوگر منطقه‏ای و موضوعی به این دسته تعلق دارند. در این مورد می‏توان به مواردی نظیر: ChemicalSearch, IndustrySearch اشاره کرد.

انتخاب کلماتی کلیدی جستجو

شما باید عباراتی را بیابید که مخاطبان بالقوه شما جستجو می‏کنند نه عباراتی که شما هنگام جستجو از آنها استفاده می‏کنید (یا دوست دارید از آنها استفاده کنید).

رتبه بالا با عبارت مناسب است که شما باید به آن دست یابید. امکان دارد شما با کلماتی همواره در صدر نتایج جستجو باشید، اما موتورهای جستجو حتی یک بیننده هم روانه سایت شما نکنند! علت چیست ؟ بسیار ساده است: شما واژه‏هایی را برگزیده‏اید که جستجو نمی‏شوند!

کاربران برای یافتن سایت‏های مورد علاقه خود، عبارت‏هایی را جستجو می‏کنند. بعضی از عبارات بسیار جستجو می‏شوند که به این عبارت‏ها، عبارت‏های محبوب گفته می‏شود. عده‏ای از عبارت‏ها هم یا کم جستجو می‏شوند و یا جستجو نمی‏شوند که عبارت‏های دارای محبوبیت کم یا فاقد محبوبیت، خوانده می‏شوند.

میزان دفعاتی که بعضی از واژه‏ها در سپتامبر 2004، جستجو شده‏اند در زیر نشان داده شده است.

(میزان محبوبیت):

iran travel 1113

iran 279029

travel 5455884

thailand travel 27762

search engine ranking 30981


ترفند: اگر رتبه‏های متوسطی با عبارت‏های محبوب کسب کنید بهتر از این است که رتبه‏های بالایی با سایر عبارات داشته باشید.

برای انتخاب کلمات مناسب سه فاکتور عمده زیر را باید در نظر بگیرید:

  • میزان مرتبط بودن آنها با محتوای سایت
  • میزان محبوبیت آنها در بین کاربران وب
  • میزان رقابتی بودن آنها میان وب سایت‏های دیگر

برای انتخاب واژه‏های کلیدی باید مانند بینندگان سایت تان فکر کنید: آنها با چه کلماتی سایت شما را می‏یابند؟

  1. تمام عباراتی را بنویسید که دوست دارید، بینندگان با جستجوی آنها، سایت شما را بیایند.
  2. سعی کنید تمام رقبای خود را شناسایی کنید. برای پیدا کردن این رقبا از چه کلماتی استفاده می‏کنید؟ آن عبارات را هم بنویسید.
  3. لیست مرحله 1 و 2 را در هم ادغام کنید و لیست جدیدی را تشکیل دهید.

به هنگام تحلیل عبارت‏های کلیدی شما به دنبال تمایلات کاربران هستید. بعد از تهیه لیست اولیه عبارت‏ها باید مشخص نمایید که کاربران چه ترکیباتی از کلمات را به کار می‏برند.

  • کلمات را به صورت جمع جستجو می‏کنند یا فرد؟
  • عبارت‏های مورد استفاده چند کلمه‏ای‏اند؟ (دو کلمه‏ای، سه کلمه‏ای و ...)
  • ترتیب جستجوی کلمات چگونه است؟ ( به عنوان مثال "ایران سفر" یا "سفر ایران" )
  • مترادف‏های رایج کلمات کدامند؟
  • حالت اختصاری کلمات کدام است؟ (بدون نقطه و با نقطه مانند IRIB و I.R.I.B.)

اگر در حال حاضر سایتی دارید، اطلاعات آماری دید و بازدید از آن می‏تواند بهترین کمک شما در انتخاب کلمات کلیدی باشند. کاربران تاکنون با چه عبارت‏هایی سایت شما را یافته‏اند؟ آن عبارت‏ها را هم به لیست کلمات اضافه نمایید. اگر در حال حاضر سایتی ندارید، می‏توانید از فهرست‏ها و موتورهای جستجوگر عمده کمک بگیرید.

به هنگام جستجو در برخی از موتورهای جستجوگر، ممکن است آنها عبارت‏های دیگری را تحت عناوینی مانند "Related Searchs"، "Other Searchs for" و ... به شما معرفی می‏کنند که توسط کاربران دیگر مورد استفاده قرار گرفته‏اند و شما آنها را تا کنون در لیست خود قرار نداده‏اید. این عبارت‏ها را هم به لیست کلمات خود اضافه نمایید.

یکی از این موتورهای جستجوگر، Askjeeves.com است. برای کسب اطلاعات بیشتر درباره عبارت‏های کلیدی ابزار دیگری نیز وجود دارد. به کمک این ابزار شما می‏توانید سه فاکتور مهم اشاره شده در انتخاب کلمات کلیدی را مورد ارزیابی قرار دهید.

تعیین میزان محبوبیت

Overture Search Term Suggestion Tool

اورچر، یک موتور جستجوگر رتبه بازای پول است که متعلق به یاهو می‏باشد. این موتور جستجوگر برای کمک به مشتریان خود ابزاری برای پیشنهاد کلمات کلیدی دارد که در آدرس زیر قابل دسترسی است:

http://inventory.overture.com/d/searchinventory/suggestion

با جستجوی کلماتی که تاکنون تهیه کرده‏اید در این ابزار می‏توانید میزان محبوبیت آنها را بیابید. همینطور سایر کلمات مرتبط با عبارت جستجو شده نیز نمایش داده می‏شود. نمونه‏ای از آن در شکل زیر نمایش داده شده است: هر چه بیشتر در این ابزار جستجو کنید به تصویر بهتری از رفتار مخاطبان واقعی سایتتان دست خواهید یافت.

Google Adwords

گوگل نیز ابزار مفیدی برای پیشنهاد کلمات کلیدی در آدرس زیر دارد:

https://adwords.google.com/select/main?cmd=KeywordSandbox

گوگل تعداد دفعات جستجوی عبارت‏ها را نشان نمی‏دهد، اما عبارت‏هایی که نمایش داده می‏شوند، حتما به میزان مناسبی توسط کاربران جستجو شده‏اند. هر دو ابزار فوق برای کمک به مشتریان تجاری گوگل و اورچر طراحی شده‏اند که البته به طور رایگان ارایه می‏شوند. برای اینکه این سرویس‏ها همچنان به صورت رایگان ارایه شوند، جستجوهای روزانه خود را در آنها محدود نمایید. عموماً شما می‏توانید با حدود 10 جستجو کلمات کلیدی مناسب سایت خود را بیابید.  

WordTracker

این ابزار با جمع‏آوری اطلاعات از چند موتور جستجوگر، به شما کمک می‏نماید تا کلمات مناسب را تشخیص دهید. هر چند که این سرویس به طور کامل رایگان نمی‏باشد اما شما هنوز هم می‏توانید به کمک آن پروسه تحقیق عبارات کلیدی خود را تکمیل نمایید.

حساسیت برای بزرگ و کوچک بودن کلمات وجود دارد ؟

برخی از موتورهای جستجوگر به بزرگی و کوچکی حروف حساس هستند. به عبارت دیگر جستجوی iran pistachio و Iran Pistachio در آن، نتایج جستجوی متفاوتی به دنبال خواهد داشت. هنگامیکه به مرحله نهایی انتخاب کلمات کلیدی رسیدید باید این نکته را برای عبارت‏هایی که بیشتر به صورت حروف بزرگ جستجو می‏شوند نیز در نظر بگیرید. هر چه عبارت‏های کلیدی طولانی تری را برگزینید شانس کسب رتبه بالاتر و همینطور مراجعه کاربران مخاطب به سایت شما بیشتر می‏شود. عبارت‏های سه، چهار و پنج کلمه‏ای عموماً منجر به نتایج جستجوی دقیقتری در نتایج جستجو می‏شوند.

حال که لیست اولیه آماده شده است از ابزار وب، فهرست‏ها و موتورهای جستجوگر نیز کمک می‏گیریم تا انتخاب عبارت‏های کلیدی سایت نهایی شود.

بعد از انتخاب نهایی کلمات کلیدی حتماً متوجه خواهید شد که لیست نهایی با لیست اولین عبارات مد نظر شما تفاوت‏هایی دارد که قبلاً به آنها فکر نکرده بودید و این موضوع به خوبی گویای این نکته ظریف است که همیشه بخشی از حقیقت نزد دیگران است! میزان رقابتی بودن کلمات تا این مرحله کلمات محبوب و مرتبط تهیه شده است.

حال باید میزان رقابتی بودن آنها بررسی شود. برای این کار هریک از عبارات لیست تهیه شده را به ترتیب در گوگل، جستجو کنید. تقریباً همه موتورهای جستجوگر تعداد صفحاتی را که در پاسخ به جستجوی کاربران یافته‏اند، نشان می‏دهند. عدد نمایش داده شده در واقع تعداد رقبا برای آن عبارت جستجو شده را نشان می‏دهد. همانطور که ملاحظه می‏کنید با جستجوی عبارت تک کلمه‏ای iran، گوگل به ما می‏گوید که 663 هزار صفحه درباره آن در پایگاه داده‏اش دارد. 663 هزار صفحه که با هم برای رسیدن به رتبه‏های بالاتر رقابت می‏کنند. (آمار مربوط به اوایل 2005 می‏باشد.)

شما نیز تمام عبارت‏های لیست کلمات را جستجو کنید و تعداد رقبای خود را برای هر یک از آنها یادداشت کنید.

ترفند: اصولا هر چه کلمه‏ای محبوت‏تر باشد و رقبای کمتری نیز داشته باشد، بهتر است.

نکاتی که باید برای انتخاب کلمات کلیدی مد نظر داشته باشید:

  1. عبارت‏های کلیدی شما یک کلمه‏ای نباشند. امروز کمتر عبارات یک کلمه‏ای جستجو می‏گردند و کاربران دریافته‏اند که به کمک عبارات دو، سه، چهار و حتی پنج کلمه‏ای بهتر می‏توانند منظور خود را بیان کنند و شرایط جستجو را به موضوع خاصی محدود نمایند. با انتخاب عبارت‏های دو و سه کلمه‏ای شما بخش خاصی از بازار را مورد هدف قرار می‏دهید : بازار کوچکتر، رقبای کمتر و از همه مهمتر، خریداران مشخص‏تر و علاقه مندتر.
  2. از کلمات بسیار رایج استفاده نکنید. به این گونه کلمات بسیار رایج و پرکاربرد، Stop Word یا بنجل می‏گویند. کلماتی که تقریبا در هر صفحه‏ای از وب از آنها استفاده شده است. مواردی نظیر is, the , and , www, home page ,be ,with و... موتورهای جستجوگر از این کلمات صرف نظر می‏کنند. کاربرد این کلمات چگالی کلمات کلیدی موجود در متن را پایین می‏آورد و ضمن آن که قابل جستجو هم نیستند.

نتیجه گیری: انتخاب کلمات کلیدی بخش مهم هر فعالیت بازاریابی با موتورهای جستجوگر است. انتخاب کلمات درست نقش مهمی در موفقیت اجرای استراتژی‏های شما دارد و انتخاب آنها نیز به انجام بررسی‏های کافی نیاز دارد.

بهینه‏سازی وب سایت

پیاده سازی یک استراتژی بلندمدت بازاریابی نیاز به این دارد که سه مولفه اصلی زیر در هر صفحه سایتتان وجود داشته باشد:

  • مولفه متن
  • مولفه لینک
  • مولفه محبوبیت

اما در عمل تعداد کمی از صفحات می‏توانند به این حالت دست یابند. به طور کلی سایت‏ها می‏توانند در یکی از حالات زیر دارای رتبه‏های مناسبی باشند:

  • سایت‏های دارای بالاترین حد بهینه‏سازی در هر سه مولفه اشاره شده.
  • سایت‏های دارای مولفه‏های محبوبیت و متن بالا اما مولفه لینک متوسط.
  • سایت‏های دارای مولفه متن و لینک متوسط اما محبوبیت بالا.

واضح است که سایت شما هر چقدر هم محبوب باشد اگر عبارت جستجو شده در آن موجود نباشد حتی در رتبه‏های آخر نتایج جستجو هم قرار نمی‏گیرد.

مولفه متن

موتورهای جستجوگر، کلمات و عبارت‏های هر صفحه را بایگانی می‏کنند لذا برای عملکرد بهتر، شما باید کلمات دلخواه را در مکان‏های مهم کدهای سایت خود قرار دهید.

مهم‏ترین بخش در مولفه متن، انتخاب عبارت‏های کلیدی سایت است. شما باید عبارت‏هایی را برگزینید که واقعاً مخاطبان سایت‏تان آنها را جستجو می‏کنند. کلمات کلیدی که انتخاب می‏کنید باید دارای شرایط زیر باشند:

  • مربوط به موضوع اصلی سایتتان باشند.
  • مطمئن باشید که کاربران دیگر آنها را جستجو می کنند.
  • خیلی رقابتی نباشند. به عبارت دیگر آن کلمات، کلمات کلیدی سایت‏های بسیار دیگری نباشند.


موتورهای جستجوگر به هنگام ارزیابی و رتبه بندی صفحات، به محتوای آن توجه زیادی دارند. متنی که برای یک موتور جستجوگر مهم است برای مخاطب اصلی شما هم مهم است در واقع منظور همان متنی است که مخاطب سایت شما به هنگام مراجعه به سایتتان می‏تواند بخواند.

منظور از متن مهم، متنی است که دو شرط زیر را دارا می‏باشد:

  1. متن باید بدون انجام هرگونه عمل خاصی در مرورگرهای استاندارد قابل رویت باشد.
  2. شما باید بتوانید متن را مستقیماً از مرورگر خود کپی کرده و به یک ویرایشگر متن انتقال دهید (Copy & Paste).

عنوان صفحه به همراه متن نمایان آن مکان‏های مهمی هستند که باید توجه ویژه‏ای را به آنها معطوف بدارید. موتورهای جستجوگر آنها را به عنوان محتوای اصلی سایت‏تان در نظر می‏گیرند و بهینه‏سازی مناسب آنها در رتبه بندی سایت تأثیر قابل توجهی دارد.

متا تگ‏ها و متون جایگزین تصاویر در اولویت بعدی قرار دارند زیرا برخی از موتورهای جستجوگر آنها را نمی‏خوانند. به عنوان مثال برای دیدن کلمات متا شما باید کدهای صفحه را ببینید و همینطور برای دیدن متن جایگزین یک تصویر باید موس خود را روی آن تصویر مدتی ثابت نگه دارید.

این کارها همان کارهای خاصی است که بیننده برای دیدن متن انجام می‏دهد در حالیکه متن اصلی و مهم صفحه را بدون انجام هیچگونه عملی می‏تواند ببیند.

تعیین موضوع اصلی سایت

امروزه موتورهای جستجوگر توجه زیادی به موضوع اصلی سایت یا طراحی و قالب بندی آن دارند (Theme). موضوع اصلی سایت باید با مراجعه به چند صفه سایت و به راحتی قابل تشخیص باشد. به عنوان مثال بسیاری از وبلاگ‏ها که در آنها درباره همه چیز نوشته می‏شود، موضوع اصلی ندارند اما ممکن است موضوعات فرعی بسیاری داشته باشند.

این نکته خیلی مهمی‏ است که باید بدان توجه نمایید. سعی کنید هر صفحه سایتتان به نوعی به موضوع اصلی مرتبط باشد. اینکه به شما توصیه می‏شود به هر سایتی لینک ندهید و از هر سایتی لینک نگیرید هم دقیقاً به خاطر این موضوع است. وقتی موتور جستجوگری موضوع اصلی سایت شما را بداند هر یک از صفحات سایتتان اتوماتیک‏وار مرتبط با همان موضوع تشخیص داده می‏شود و شانس کسب رتبه‏های بالا افزایش می‏یابد.

Title

عنوان صفحه به دلایل متعددی هم از دیدگاه طراحی وب سایت و هم از دیدگاه موتورهای جستجوگر، مهم می‏باشد.

  • کاربران به هنگام خواندن صفحات سایت، آنرا در مرورگر خود می‏بینند.
  • در رتبه بندی صفحات به عنوان متن اصلی سایت نقش دارند.
  • به عنوان چیزی که کاربران باید روی آن کلیک کنند، در نتایج جستجو نشان داده می‏شود.
  • به هنگام ذخیره و بوک مارک کردن صفحات به صورت پیش فرض از عنوان صفحه استفاده می‏شود.

لذا نوشتن مناسب عنوان صفحه را مانند یک قاعده اصولی همواره مد نظر داشته باشید. در نوشتن آن دقت کنید که در عین حال که حاوی کلمات کلیدی است باید بتواند کاربران را به کلیک کردن و آمدن به سایت شما ترغیب کند. صرفاً قرار دادن کلمات کلیدی در آن ممکن است به رتبه بالا منجر شود اما میزان کلیک‏هایی که در نتایج جستجو بر آن می‏شود را هم باید مد نظر داشته باشید.

اگر کلمات کلیدی بسیاری دارید باید صفحات بسیاری نیز طراحی کنید و در آنها عنوان‏ها را با کلمات کلیدی متناسب با همان صفحه بنویسد. قرار دادن یک عنوان ثابت در تمام صفحات سایت کار بسیار اشتباهی است که بسیاری مرتکب آن می‏شوند. این کار تنها زمانی درست است که سایت تنها یک کلمه کلیدی داشته باشد!

متن صفحه

متن نمایان صفحه آن چیزی است که بین دو تگ body قرار می‏گیرد و مستقیماً قادر به کپی کردن آن از مرورگر و انتقال آن به یک ویرایشگر متن می‏باشید.

این متن را بیننده می‏بیند، می‏خواند و سپس کاری در سایت انجام می‏دهد. دیدن و خواندن مطالب برای تمام صفحات اینترنتی اتفاق می‏افتد اما کاری که پس از این دیدن و خواندن انجام می‏شود مشخص نیست.

ممکن است بیننده با خواندن یک متن به خواندن مطالب بعدی ترغیب گردد. همچنین ممکن است با خواندن چند خط آن به طور کلی از سایت خارج شود.

موتورهای جستجوگر به طور مداوم تگ‏هایی مورد تأکید خود را تغییر می‏دهند و شما نمی‏توانید دقیقاً عنوان کنید که در حال حاضر بر چه چیزی تمرکز دارند. اما رویه اصلی آنها همواره ثابت است: آنها متن را می‏خوانند و لینک را دنبال می‏کنند.

به همین دلیل بی‏نهایت مهم است که شما کلمات کلیدی خود را در متن نمایان صفحه قرار دهید تا مطمئن شوید که موتور جستجوگر آن‏ها را می‏خواند و با خود می‏برد.

نکات کلیدی

  • متن باید حرفی برای گفتن داشته باشد.
  • از نظر قواعد املایی و نگارش نقص نداشته باشد.
  • به شکلی جذاب و ترغیب کننده تنظیم گردد.
  • به قصد اطلاع رسانی و کمک به دیگران نوشته شده باشد و نه برای اغفال و بزرگ نمایی.
  • جملات متن طولانی نباشد.
  • اگر متن طولانی است و باید در یک صفحه نمایش داده شود، حتماً پاراگراف بندی شود.

اگر حرفی برای گفتن ندارید، کسب رتبه‏های بالا برایتان مفید فایده نخواهد بود. اگر بیننده بیاید و چیزی در سایت شما نیابد آنگاه چه؟ خیلی واضح است، با خواندن گزیده‏ای از متن صفحات، تصمیم خود را برای ترک سایت می‏گیرد. در یکی از کتاب‏های بازاریابی خواندم که : "یک خریدار راضی، تجریه‏اش را به 3 نفر منتقل می‏کند اما یک خریدار ناراضی آنرا به 10 نفر منتقل می‏کند"

جداً به محتوای صفحات دقت کنید. اگر خودتان نمی‏توانید از دیگران بخواهید تا این کار را برایتان انجام دهند. هیچوقت سعی نکنید که متن‏های طولانی را در یک صفحه بگنجانید بلکه آنرا به چند بخش کوتاه تقسیم کرده، در صفحات مختلف ارایه دهید. با این کار هم به بینندگانتان فرصت فکر کردن داده‏اید و هم اینکه شانس خود را در کسب رده‏های مناسب افزایش داده‏اید: به جای یک صفحه اکنون چند صفحه دارید !

اگر یک متن را به 3 قسمت تقسیم کنیم، از دیدگاه یک موتور جستجوگر مهم‏ترین بخش آن 3/1 بالای صفحه است. لذا سعی کنید واژه‏های کلیدی را در این قسمت به کار ببرید (و نه ردیف کنید!)

منابع

pwcent.net

بازنویسی شده توسط تیم مامبولرن

8.pngاستفاده از مطالب دانشنامه جوملا فارسی - مامبو فارسی با ذکر منبع ( دانشنامه جوملا فارسی ) و لینک مستقیم به http://docs.joomlafarsi.com بلامانع است.