آموزش‌های کلادفلر به‌زودی در این بخش قرار داده می‌شود.

دسته: سئو

  • همه‌چیز در مورد گوگل AI Overviews و AI Mode در دنیای سئو

    تا حالا عادت داشتیم وقتی چیزی رو سرچ می‌کنیم، یه لیست بلندبالا از لینک‌های آبی ببینیم و خودمون یکی یکی بازشون کنیم تا به جواب برسیم. اما اون دوران داره کم‌کم به سر میاد. گوگل با دو تا ابزار جدید به اسم «AI Overviews» و «AI Mode» وارد شده و داره بازی رو عوض می‌کنه.

    AI Overviews چیه؟

    تا حالا شده یه سوال از گوگل بپرسید و ببینید بالای همه لینک‌ها، یه کادر بزرگ خاکستری یا رنگی ظاهر شده که توش یه خلاصه کامل از جوابتون نوشته شده؟ اون کادر همون AI Overview یا به فارسی «نمای کلی هوش مصنوعی» هست. گوگل با استفاده از هوش مصنوعی خودش، میره چند تا از سایت‌های معتبر رو می‌خونه، اطلاعات مهم‌شون رو استخراج می‌کنه و یه جواب جمع‌وجور به شما تحویل میده.

    فکر کنید دارید دنبال دستور پخت قرمه‌سبزی می‌گردید. قدیما باید چند تا سایت رو باز می‌کردید، یکی رو برای مواد لازم، یکی رو برای مراحل پخت و شاید یکی دیگه رو برای نکات و فوت‌وفن‌ها. اما با AI Overview، گوگل ممکنه یه جواب واحد بهتون بده که توش نوشته: «برای قرمه‌سبزی به این مواد نیاز دارید… مراحل پخت هم به این صورته… یادتون نره که سبزی رو خوب سرخ کنید تا رنگش تیره بشه». تازه زیر همین جواب، لینک اون سایت‌هایی که ازشون اطلاعات برداشته رو هم میذاره تا اگه خواستید، بیشتر در موردش بخونید.

    ویژگی‌های اصلی AI Overviews ایناست:

    • بالای نتایج قرار می‌گیره: این خلاصه‌ها اولین چیزی هستن که کاربر بعد از سرچ می‌بینه، حتی بالاتر از لینک شماره یک.
    • از چند منبع اطلاعات می‌گیره: هوش مصنوعی گوگل فقط به یه سایت اکتفا نمی‌کنه. ممکنه اطلاعات رو از سه، چهار یا حتی بیشتر از سایت‌های مختلف ترکیب کنه تا یه جواب کامل بسازه.
    • هدفش کم کردن کلیک‌هاست: ایده اصلی اینه که کاربر خیلی سریع به جوابش برسه و دیگه نیازی به کلیک کردن روی لینک‌های مختلف و گشتن توی سایت‌ها نداشته باشه. این همون نکته‌ایه که صاحبان سایت‌ها رو نگران کرده.

    این ویژگی برای سوال‌های پیچیده یا چندبخشی خیلی کاربرد داره. مثلا اگه بپرسید «بهترین گوشی‌های میان‌رده برای عکاسی در سال ۲۰۲۵ کدوما هستن؟» به جای اینکه ۱۰ تا نقد و بررسی مختلف رو بخونید، AI Overview ممکنه یه جدول مقایسه‌ای بهتون نشون بده که توش چند تا مدل گوشی با ویژگی‌ها و قیمت‌هاشون لیست شدن. این کار تجربه کاربری رو خیلی راحت‌تر می‌کنه، اما همون‌طور که گفتیم، یه چالش بزرگ برای تولیدکننده‌های محتواست.

    AI Mode چیه؟

    اگه AI Overview مثل یه جواب سریع و آماده از طرف یه دستیار باشه، AI Mode بیشتر شبیه یه مکالمه و گفتگو با یه متخصص باهوشه. این حالت یه تجربه کاملا جدید و غرق‌کننده‌تر از جستجو رو به کاربر میده.

    وقتی شما وارد AI Mode میشید (که در حال حاضر به صورت آزمایشی برای بعضی کاربرها فعاله)، دیگه با یه لیست ساده از لینک‌ها طرف نیستید. شما وارد یه محیط چت‌محور میشید که می‌تونید سوال‌های دنباله‌دار بپرسید، از هوش مصنوعی بخواید جوابش رو دقیق‌تر کنه، یا حتی موضوع رو از یه زاویه دیگه بررسی کنه. این قابلیت، گوگل رو به رقیب مستقیم ابزارهایی مثل ChatGPT تبدیل می‌کنه.

    بذارید با یه مثال توضیح بدم. فرض کنید دارید برای سفر به ایتالیا برنامه‌ریزی می‌کنید.

    • جستجوی سنتی: شما سرچ می‌کنید «جاهای دیدنی ایتالیا». گوگل یه لیست از سایت‌ها رو بهتون میده. بعد باید جداگونه سرچ کنید «بهترین فصل سفر به ایتالیا»، «هزینه سفر به ایتالیا» و…
    • با AI Overview: شاید برای سوال اولتون یه خلاصه از جاهای دیدنی معروف مثل کلوسئوم و برج پیزا بگیرید.
    • با AI Mode: شما مکالمه رو شروع می‌کنید: «می‌خوام یه سفر ۱۰ روزه به ایتالیا برم، چه برنامه‌ای پیشنهاد می‌کنی؟». هوش مصنوعی یه برنامه سفر کامل بهتون میده. بعد شما می‌پرسید: «حالا اگه بودجه‌م محدود باشه چی؟». هوش مصنوعی برنامه رو بر اساس بودجه کمتر تغییر میده. بعد می‌پرسید: «بین رم و فلورانس، کدوم برای کسی که به هنر علاقه داره بهتره؟». هوش مصنوعی یه مقایسه کامل بین این دو شهر انجام میده.

    AI Overviews یه ویژگی خاص در صفحه نتایج جستجوی معمولیه، یعنی یه جواب خلاصه بالای همون لینک‌های همیشگی. اما AI Mode یه محیط کاملا جدا و اختصاصی برای جستجوی مبتنی بر هوش مصنوعیه که کل تجربه کاربری رو تغییر میده و تمرکزش روی گفتگو و کشف اطلاعاته.

    AI Mode با یه تکنیک جالب به اسم «query fan-out» کار می‌کنه. یعنی وقتی شما یه سوال پیچیده می‌پرسید، هوش مصنوعی در پشت صحنه چندین جستجوی مرتبط با زیرشاخه‌های سوال شما رو همزمان انجام میده، اطلاعات رو از منابع مختلف جمع می‌کنه و بعد همه رو با هم ترکیب می‌کنه تا یه جواب جامع و کامل بهتون بده. گوگل میگه این روش باعث میشه «وسعت و عمق اطلاعات» خیلی بیشتری نسبت به یه جستجوی سنتی در اختیار کاربر قرار بگیره.

    چه کسانی می‌تونن از AI Mode استفاده کنن؟

    در حال حاضر، این قابلیت برای همه فعال نیست. گوگل داره اون رو به صورت آزمایشی در مناطق خاصی مثل آمریکا و بریتانیا عرضه می‌کنه و فقط برای حساب‌های شخصی گوگل در دسترسه. کاربرانی که عضو برنامه‌های آزمایشی گوگل مثل Search Labs باشن، می‌تونن این قابلیت رو فعال کنن. برای فعال‌سازی در آمریکا، کافیه کاربر با حساب شخصی خودش وارد مرورگر کروم بشه، روی آیکون Search Labs کلیک کنه و این آزمایش رو روشن کنه.

    این حرکت گوگل نشون میده که آینده جستجو به سمت مکالمه و گرفتن جواب‌های مستقیم میره. ساندار پیچای، مدیرعامل گوگل، قبلا گفته بود که دوران «۱۰ لینک آبی» دیگه قدیمی شده و AI Mode یه «بازآفرینی کامل» از آینده جستجوئه.

    معمای نرخ کلیک (CTR)

    یکی از عجیب‌ترین و غیرمنتظره‌ترین تاثیرات AI Overviews، به هم ریختن یه قانون قدیمی و مقدس در دنیای سئو بود، اینکه رتبه اول گوگل همیشه بیشترین کلیک رو می‌گیره. برای سال‌ها، تمام تلاش متخصصان سئو این بود که سایت‌ها رو به رتبه یک برسونن، چون همه می‌دونستن که جایگاه اول، بیشتر ترافیک رو برمی‌داره. اما حالا، این قانون دیگه صادق نیست.

    مارک باررا، معاون بازاریابی محتوا در TrustRadius، یه پست جالب در لینکدین منتشر کرد: وقتی یه AI Overview در نتایج جستجو وجود داره، لینکی که در جایگاه دوم (Position 2) قرار داره، اغلب نرخ کلیک (CTR) بیشتری نسبت به لینکی که در جایگاه اول (Position 1) قرار داره، کسب می‌کنه.

    بذارید اول مفهوم CTR رو ساده توضیح بدم. CTR یا Click-Through Rate یعنی «نرخ کلیک به ازای نمایش». فرض کنید لینک سایت شما ۱۰۰ بار در نتایج گوگل به کاربرها نشون داده میشه (به این میگن Impression) و از این ۱۰۰ بار، ۵ نفر روش کلیک می‌کنن. CTR شما در این حالت ۵ درصده. طبیعتا هر چی CTR بالاتر باشه، یعنی عنوان و توضیحات لینک شما جذاب‌تر بوده.

    حالا برگردیم به کشف آقای باررا. چرا باید رتبه دوم بیشتر از رتبه اول کلیک بگیره؟

    • اثر کوری نسبت به هوش مصنوعی: بعضی از کاربرها ممکنه به صورت ناخودآگاه یا آگاهانه، کادر بزرگ AI Overview رو نادیده بگیرن. شاید بهش اعتماد ندارن، شاید از حجم اطلاعاتش خسته میشن، یا شاید چشم‌شون به دیدن این کادرهای جدید عادت نکرده و دنبال همون لینک‌های آبی آشنا می‌گردن.
    • لینک رتبه یک در خلاصه گم میشه: اغلب اوقات، لینکی که در جایگاه اول قرار داره، یکی از منابع اصلی برای ساختن اون AI Overview هست. ممکنه لینک این سایت به صورت خیلی کوچیک و نامحسوس داخل اون خلاصه ذکر بشه. در نتیجه، کاربر جوابش رو از محتوای سایت رتبه یکی می‌گیره، اما نیازی به کلیک کردن روی لینک اصلیش نمی‌بینه.
    • رتبه دوم، اولین لینک «واقعی» به نظر میرسه: بعد از اینکه کاربر از کادر بزرگ AI Overview عبور می‌کنه، اولین لینک ارگانیک و سنتی که به چشمش می‌خوره، لینکیه که در جایگاه دوم قرار گرفته. در واقع، رتبه دوم تبدیل به «رتبه یک جدید» در ذهن کاربر میشه.

    بیاید به داده‌هایی که باررا به اشتراک گذاشت، دقیق‌تر نگاه کنیم. این داده‌ها مربوط به کلماتی بودن که باعث نمایش AI Overview می‌شدن:

    جایگاه (Position)نرخ کلیک (CTR)
    جایگاه ۱۲.۵۱٪
    جایگاه ۲۵.۷۶٪
    جایگاه ۳۱.۸۳٪
    جایگاه ۴۲.۲۴٪
    جایگاه ۵۱.۹۴٪
    جایگاه ۶ به بعدکمتر از ۱٪

    این جدول خیلی چیزها رو روشن می‌کنه. نرخ کلیک جایگاه دوم بیش از دو برابر جایگاه اوله! این یه الگوی کاملا غیرعادی در رفتار جستجوی کاربرهاست و نشون میده که منطق سنتی سئو کاملا به هم ریخته. این یعنی ممکنه شما کلی زحمت بکشید، به رتبه یک برسید و محتوای شما منبع اصلی جواب هوش مصنوعی باشه، اما در نهایت رقیب شما که در رتبه دوم قرار داره، ترافیک بیشتری بگیره.

    یه مثال دیگه از داده‌های تحلیل‌شده، این روند رو ترسناک‌تر هم می‌کنه. یه صفحه خاص، با وجود اینکه نسبت به سال قبل:

    • ۸۷.۸ درصد افزایش نمایش (Impression) داشته،
    • و میانگین رتبه‌اش هم بهتر شده،
    • اما تعداد کلیک‌هاش ۳۲.۸ درصد کاهش پیدا کرده!
    • و در نهایت به نرخ کلیک فاجعه‌بار ۰.۳ درصد رسیده.

    این آمارها یه پیام واضح دارن: دیگه نمی‌تونید فقط به رتبه و تعداد نمایش دلخوش کنید. ممکنه آمار Impression شما بالا بره، ولی این به معنی موفقیت نیست. شما ممکنه در حال دیده شدن باشید، اما انتخاب نشید. اینجاست که اهمیت تحلیل دقیق داده‌ها و فراتر رفتن از معیارهای سنتی مشخص میشه.

    کم بودن دیتاها

    گوگل داده‌های زیادی در مورد عملکرد محتوا در AI Overviews ارائه نمیده.

    ابزار اصلی متخصصان سئو برای تحلیل عملکرد سایت در گوگل، Google Search Console هست. این ابزار به شما میگه برای چه کلماتی، چند بار دیده شدید، چند تا کلیک گرفتید و رتبه‌تون چند بوده. اما مشکل اینجاست که سرچ کنسول در حال حاضر تفاوتی بین نمایش و کلیک در نتایج ارگانیک سنتی و نمایش و کلیک در AI Overviews قائل نمیشه. همه رو با هم به شما نشون میده.

    این یعنی شما می‌بینید که عملکردتون افت یا رشد کرده، اما نمی‌تونید دقیقا بفهمید که آیا این افت یا رشد به خاطر AI Overviews بوده، یا یه تغییر دیگه در الگوریتم گوگل، یا رفتار کاربرها عوض شده. این کم بودن دیتا، تحلیل، تست و بهینه‌سازی رو سخت‌تر میکنه.

    چرا این نبود شفافیت مهمه؟

    • نمی‌تونید تاثیر رو جدا کنید: شما نمی‌تونید بفهمید افت ترافیک شما دقیقا به خاطر خلاصه‌های هوش مصنوعیه یا دلایل دیگه.
    • تست کردن غیرممکن میشه: نمی‌تونید دو نسخه مختلف از محتواتون رو تست کنید تا ببینید کدوم یکی بهتر در AI Overviews عمل می‌کنه، چون اصلا داده‌ای برای مقایسه ندارید.
    • بهینه‌سازی تبدیل به حدس و گمان میشه: بدون داده، نمی‌تونید استراتژی محتوای خودتون رو برای اینکه بیشتر در این خلاصه‌ها دیده بشید (یا برعکس، ازش دوری کنید) تنظیم کنید.
    • تحلیل بازگشت سرمایه (ROI) مختل میشه: وقتی نمی‌دونید این ویژگی جدید چه تاثیری روی تعامل کاربرها داره، چطور می‌تونید بودجه‌بندی محتوا و کمپین‌های بازاریابی‌تون رو توجیه کنید؟

    بعضی‌ها معتقدن که گوگل ممکنه عمدا این داده‌ها رو مخفی نگه داشته باشه. چرا؟ چون اگه شفافیت کامل وجود داشت و همه به وضوح می‌دیدن که AI Overviews چقدر داره به ترافیک ارگانیک سایت‌ها ضربه می‌زنه، backlash یا واکنش منفی از طرف جامعه ناشران و تولیدکننده‌های محتوا می‌تونست خیلی شدید باشه. اگه برندها ببینن محتوایی که برای تولیدش کلی هزینه کردن، داره به صورت رایگان برای آموزش و قدرت دادن به هوش مصنوعی گوگل استفاده میشه و در عوض ترافیک کمی بهشون برمی‌گرده، ممکنه سرمایه‌گذاری‌شون رو در تولید محتوا کم کنن.

    فصل سوم؛ چطور ردپای هوش مصنوعی رو دنبال کنیم؟

    خب، تا اینجا در مورد مشکلات و چالش‌هایی که AI Overviews ایجاد کرده صحبت کردیم. اما این به معنی تسلیم شدن نیست. خوشبختانه گوگل یه سری سرنخ‌ها و ابزارها رو در اختیار ما قرار داده که اگه بلد باشیم چطور ازشون استفاده کنیم، می‌تونیم حداقل یه دید کلی از وضعیت پیدا کنیم. ابزار اصلی ما برای این کار، همون Google Search Console هست.

    فیلتر جدید در سرچ کنسول؛ «Search Appearance»

    گوگل با درک اهمیت این موضوع، یه قابلیت جدید رو مستقیما به گزارش‌های Performance در سرچ کنسول اضافه کرده. این قابلیت به شما اجازه میده ترافیک مربوط به ویژگی‌های هوش مصنوعی رو جداگونه بررسی کنید. البته ممکنه اسم دقیق این فیلتر یا عملکردش در آینده تغییر کنه و شاید این داده‌ها در همه کشورهایی که AI Overviews فعال هستن، در دسترس نباشه.

    چطور به این داده‌ها دسترسی پیدا کنیم؟

    1. وارد حساب Google Search Console خودتون بشید.
    2. به بخش Performance برید. این همون بخشیه که آمار کلی کلیک، نمایش، CTR و رتبه سایت شما رو نشون میده.
    3. بالای نمودار، روی گزینه فیلترها (معمولا با علامت + یا New مشخص شده) کلیک کنید.
    4. گزینه «Search Appearance» رو انتخاب کنید. این فیلتر به شما اجازه میده عملکرد محتواتون رو در فرمت‌های مختلف نتایج جستجو ببینید. مثلا می‌تونید ببینید در بخش ویدئوها یا اخبار چقدر دیده شدید.
    5. از لیست باز شده، فیلتری با عنوان «AI Overview» یا یه اسم مشابه رو انتخاب کنید.

    وقتی این فیلتر رو اعمال می‌کنید، تمام داده‌های گزارش Performance فقط برای مواقعی نشون داده میشه که سایت شما به عنوان یکی از منابع در AI Overview استفاده شده. حالا شما می‌تونید معیارهای کلیدی رو به طور خاص برای این بخش تحلیل کنید.

    معیارها

    بعد از اینکه داده‌ها رو فیلتر کردید، با همون معیارهای همیشگی سرچ کنسول روبه‌رو میشید، اما حالا تفسیر این معیارها در دنیای هوش مصنوعی یه کم فرق می‌کنه.

    • Impressions (نمایش): این عدد به شما میگه که صفحه شما چند بار به عنوان یکی از منابع در یک AI Overview نمایش داده شده.
      • تفسیر جدید: یه Impression بالا با تعداد کلیک پایین می‌تونه یه زنگ خطر باشه. این یعنی AI Overview داره خیلی خوب سوال کاربر رو مستقیما جواب میده و کاربر دیگه نیازی به کلیک کردن و اومدن به سایت شما پیدا نمی‌کنه. در واقع، محتوای شما داره به گوگل کمک می‌کنه تا کاربر رو پیش خودش نگه داره. از طرفی، Impression بالا نشون میده که گوگل محتوای شما رو معتبر و مفید تشخیص داده، که این خودش یه نکته مثبته.
    • Clicks (کلیک‌ها): این معیار اندازه می‌گیره که چند نفر از کاربرها روی لینکی که به سایت شما در AI Overview داده شده، کلیک کردن.
      • تفسیر جدید: یه نرخ کلیک (CTR) بالا در این بخش نشون میده که عنوان یا خلاصه کوچیکی که از محتوای شما در AI Overview نمایش داده شده، اونقدر جذاب و قانع‌کننده بوده که کاربر رو تشویق کرده برای اطلاعات بیشتر به سایت شما بیاد. این یعنی شما تونستید کنجکاوی کاربر رو حتی بعد از خوندن خلاصه هوش مصنوعی، تحریک کنید.
    • Queries (عبارات جستجو شده): با بررسی این بخش می‌تونید بفهمید که کاربرها چه نوع سوال‌ها و موضوعاتی رو سرچ کردن که باعث شده محتوای شما در یک AI Overview ظاهر بشه.
      • تفسیر جدید: این بخش یه معدن طلا برای پیدا کردن ایده‌های جدیده. با تحلیل این کوئری‌ها، شما می‌تونید دقیقا بفهمید که پلتفرم‌های هوش مصنوعی چه نوع اطلاعاتی رو از سایت شما استخراج می‌کنن. این به شما کمک می‌کنه تا برای آینده، محتوایی تولید کنید که دقیقا باب میل این سیستم‌هاست.
    • Position (جایگاه): گوگل یه میانگین جایگاه برای محتوای شما در این ویژگی‌های جستجوی هوش مصنوعی هم ارائه میده.
      • نکته مهم: برای اینکه در مورد جایگاه گیج نشید، یادتون باشه که تمام لینک‌هایی که داخل یک AI Overview قرار دارن، همگی یک جایگاه واحد رو به اشتراک میذارن. یعنی اگه سایت شما و دو تا سایت دیگه با هم در یک خلاصه استفاده شدید، جایگاه هر سه شما یکسان در نظر گرفته میشه.

    چطور از این دیتاها استفاده کنیم؟

    تحلیل این داده‌ها فقط برای نگاه کردن نیست. شما می‌تونید از این اطلاعات برای بهبود استراتژی محتوا و سئوی خودتون استفاده کنید:

    1. پیدا کردن ایده‌های جدید برای محتوا: آیا کوئری‌هایی با Impression بالا ولی کلیک پایین می‌بینید؟ این یه فرصت عالیه. یعنی کاربرها دنبال اون موضوع هستن، ولی جواب خلاصه گوگل براشون کافی بوده. شما می‌تونید یه محتوای اختصاصی و خیلی کامل‌تر در مورد همون سوال بسازید که کاربر رو مجبور کنه برای فهمیدن جزئیات بیشتر، حتما روی لینک شما کلیک کنه.
    2. بهبود محتوای موجود: صفحاتی از سایت شما که در خیلی از AI Overviewها ظاهر میشن ولی CTR پایینی دارن، نیاز به بهینه‌سازی دارن. سعی کنید عنوان صفحه (Page Title) و توضیحات متا (Meta Description) رو جذاب‌تر و وسوسه‌انگیزتر بنویسید تا شانس کلیک کردن رو بالا ببرید.

    اتصال سرچ کنسول به گوگل آنالیتیکس

    برای اینکه یه تصویر کامل از رفتار کاربر داشته باشید، وصل کردن حساب Google Search Console به Google Analytics ضروریه. این دو ابزار مکمل هم هستن. سرچ کنسول به شما میگه کاربرها چطور محتوای شما رو پیدا می‌کنن، در حالی که آنالیتیکس به شما میگه بعد از ورود به سایت شما، چه کارهایی انجام میدن و چقدر با محتوا درگیر میشن.

    بعد از اتصال این دو، می‌تونید ترافیکی که از AI Overviews میاد رو در آنالیتیکس تحلیل کنید و معیارهایی مثل اینا رو بررسی کنید:

    • Bounce Rate (نرخ پرش): چند درصد از کاربرها بعد از دیدن فقط یک صفحه، سایت شما رو ترک می‌کنن؟
    • Time on Page (زمان ماندن در صفحه): کاربرها به طور متوسط چقدر زمان در صفحه شما صرف می‌کنن؟
    • Conversion Rates (نرخ تبدیل): چند درصد از این کاربرها کاری که شما می‌خواستید رو انجام میدن (مثلا خرید محصول، ثبت‌نام در خبرنامه و… )؟

    اگه کاربرهایی که از طریق AI Overviews میان، زمان بیشتری در صفحه شما می‌مونن و نرخ تبدیل بالاتری دارن، این یه نشونه خیلی خوبه. یعنی AI Overview داره ترافیک باکیفیت و بسیار مرتبط رو به سمت سایت شما هدایت می‌کنه.

    محدودیت‌ها و چیزهایی که باید در نظر گرفت

    با اینکه این داده‌ها خیلی ارزشمندن، اما نباید محدودیت‌هاشون رو فراموش کنیم:

    • ماهیت آزمایشی: نتایج جستجوی تولیدشده با هوش مصنوعی هنوز در حال تکامله. ممکنه داده‌ها نوسان داشته باشن یا همیشه پایدار نباشن.
    • پوشش ندادن همه کوئری‌ها: فقط برخی از عبارات جستجو باعث نمایش AI Overviews میشن.
    • عدم نمایش اعتبار در همه موارد (Partial Attribution): بعضی وقت‌ها ممکنه سایت شما در تولید یه جواب هوش مصنوعی نقش داشته باشه، اما هیچ لینک مستقیم یا اعتبار قابل مشاهده‌ای به شما داده نشه.
    • عدم ردیابی تبدیل به صورت مستقیم: در حال حاضر، راهی برای اندازه‌گیری مستقیم نرخ تبدیل از کلیک‌های هوش مصنوعی وجود نداره.

    با درک این محدودیت‌ها، می‌تونید انتظارات واقع‌بینانه‌تری داشته باشید و در عین حال از این داده‌های جدید برای بهینه‌سازی استراتژی‌تون به بهترین شکل ممکن استفاده کنید.

    استراتژی اولیه

    خب، حالا که فهمیدیم دنیا عوض شده و ابزارهای تحلیل جدید رو هم شناختیم، وقتشه آستین‌ها رو بالا بزنیم و بریم سراغ بخش عملی ماجرا: استراتژی. دیگه نمی‌تونیم با همون فرمون قدیمی رانندگی کنیم. باید خودمون رو با قوانین جدید جاده هماهنگ کنیم. تو این فصل، می‌خوایم مجموعه‌ای از بهترین تکنیک‌ها و استراتژی‌هایی که متخصصان برای موفقیت در این دوران جدید پیشنهاد می‌کنن رو با هم مرور کنیم.

    این استراتژی‌ها به دو بخش اصلی تقسیم میشن: اول، چطور محتوامون رو برای خود AI Overviews بهینه کنیم و دوم، چطور فراتر از اون فکر کنیم و کسب‌وکارمون رو در برابر این تغییرات مقاوم کنیم.

    بخش اول: بهینه‌سازی برای موتورهای پاسخ‌گو (Answer Engine Optimization)

    اصطلاح SEO یا Search Engine Optimization رو حتما شنیدید. اما حالا با یه مفهوم جدیدتر به اسم AEO یا Answer Engine Optimization طرف هستیم. یعنی بهینه‌سازی برای موتورهایی که به جای لیست کردن لینک، مستقیم «پاسخ» میدن. هدف اینه که محتوای شما اونقدر واضح، معتبر و قابل استخراج باشه که هوش مصنوعی گوگل برای ساختن جواب‌هاش، شما رو به عنوان یه منبع اصلی انتخاب کنه. البته در جریان باشید که AEO فرقی با SEO نداره و نیاز به مسیر جدید نیست، کافیه توی Seo به‌روز باشید.

    چطور این کار رو انجام بدیم؟

    1. ساختار محتوای مبتنی بر پاسخ (Answer-Based Content Structure)
      • هوش مصنوعی عاشق محتوای منظم و ساختاریافته‌ست. به جای نوشتن پاراگراف‌های طولانی و تو در تو، سعی کنید محتواتون رو به بخش‌های کوچیک و قابل فهم تقسیم کنید.
      • از تیترها و زیرتیترهای واضح استفاده کنید (H1, H2, H3): این کار به هوش مصنوعی کمک می‌کنه تا سلسله‌مراتب و موضوع اصلی هر بخش از محتوای شما رو سریع بفهمه.
      • از لیست‌های بولت‌پوینت و شماره‌دار استفاده کنید: این فرمت برای نمایش مراحل، ویژگی‌ها یا نکات مختلف عالیه و استخراج اطلاعات ازش برای ربات‌ها خیلی راحته.
      • بخش پرسش و پاسخ (FAQ) ایجاد کنید: یه بخش FAQ در انتهای مقاله‌هاتون اضافه کنید و به سوالات رایج و مرتبط با موضوع جواب‌های کوتاه و مستقیم بدید. این کار شانس شما رو برای اینکه در AI Overviews به عنوان منبع یه سوال خاص نمایش داده بشید، به شدت بالا می‌بره.
      • جواب‌های خلاصه رو اول قرار بدید: سعی کنید نکات کلیدی و جواب اصلی سوال رو همون اوایل محتوا قرار بدید تا هوش مصنوعی بتونه به راحتی اون رو پیدا و استخراج کنه.
    2. تمرکز ویژه روی E-E-A-T
      • این کلمه مخفف چهار تا مفهوم کلیدیه که برای گوگل، به خصوص در موضوعات حساس، حکم مرگ و زندگی رو داره. E-E-A-T یعنی:
      • Experience (تجربه): آیا نویسنده محتوا، تجربه دست اول و واقعی در مورد اون موضوع داره؟ مثلا یه نقد و بررسی گوشی که توسط کسی نوشته شده که واقعا با اون گوشی کار کرده، خیلی باارزش‌تر از یه متنه که از روی مشخصات فنی نوشته شده.
      • Expertise (تخصص): آیا نویسنده در اون زمینه تخصص داره؟ مثلا یه مقاله پزشکی باید توسط یه پزشک نوشته یا تایید بشه.
      • Authoritativeness (اعتبار): آیا سایت و نویسنده شما در اون حوزه به عنوان یه منبع معتبر شناخته میشن؟ بک‌لینک از سایت‌های معتبر، упоминания در رسانه‌ها و… به ساخت این اعتبار کمک می‌کنه.
      • Trustworthiness (قابل اعتماد بودن): آیا کاربر می‌تونه به اطلاعات شما اعتماد کنه؟ شفافیت در مورد منابع، داشتن صفحه «درباره ما» کامل و اطلاعات تماس واضح، به افزایش اعتماد کمک می‌کنه.
      • محتوایی که این چهار تا ویژگی رو داشته باشه، شانس خیلی بیشتری برای انتخاب شدن توسط هوش مصنوعی گوگل داره. پس روی ساختن پروفایل نویسنده‌های متخصص، نمایش مدارک و تجربیات‌شون و لینک دادن به منابع معتبر حسابی کار کنید.
    3. استفاده از داده‌های ساختاریافته (Schema Markup)
      • اسکیما مارکاپ مثل یه زبان ترجمه‌ست که شما باهاش به گوگل کمک می‌کنید محتوای سایتتون رو بهتر و عمیق‌تر بفهمه. اینا یه سری کدهایی هستن که به صورت نامرئی به سایت شما اضافه میشن و به گوگل میگن «هی، این یه دستور پخته»، «این یه نقد و بررسیه» یا «این یه صفحه پرسش و پاسخه».
      • از اسکیمای FAQPage برای بخش‌های پرسش و پاسخ استفاده کنید.
      • از اسکیمای Person برای معرفی نویسنده‌ها و تخصص‌شون استفاده کنید.
      • از اسکیمای Organization برای تعریف برند و کسب‌وکارتون استفاده کنید.
      • از اسکیمای HowTo برای محتواهای آموزشی مرحله به مرحله استفاده کنید.
      • استفاده درست از اسکیما، شانس شما رو برای نمایش در نتایج غنی (Rich Results) و همچنین انتخاب شدن توسط AI Overviews بالا می‌بره.
    4. پوشش عمیق قصد کاربر (User Intent)
      • سعی کنید فقط به جواب‌های سطحی اکتفا نکنید. یه موضوع رو از زوایای مختلف بررسی کنید و به سوال‌های دنباله‌داری که ممکنه در ذهن کاربر ایجاد بشه، پیشاپیش جواب بدید. هوش مصنوعی گوگل ترجیح میده از منابعی استفاده کنه که یه موضوع رو به صورت کامل و عمیق پوشش دادن.

    استراتژی‌های بقا و رشد

    موفقیت در این دنیای جدید فقط به بهینه‌سازی محتوا خلاصه نمیشه. شما باید نگاه استراتژیک‌تری داشته باشید و کسب‌وکارتون رو برای آینده‌ای که جستجو فقط یکی از راه‌های رسیدن به شماست، آماده کنید.

    1. محتوایی بسازید که هوش مصنوعی نمی‌تونه جایگزینش کنه
      • هوش مصنوعی در خلاصه کردن اطلاعات و جواب دادن به سوالات واقعی (factual) عالیه. اما در بعضی زمینه‌ها هنوز ضعیفه. شما باید روی این زمینه‌ها سرمایه‌گذاری کنید:
      • تحقیقات و داده‌های اختصاصی (Original Research): نظرسنجی برگزار کنید، داده‌های داخلی شرکتتون رو تحلیل و منتشر کنید یا گزارش‌های بنچمارک صنعتی بسازید. هوش مصنوعی نمی‌تونه داده‌های دست اول تولید کنه و برای این اطلاعات، مجبور میشه به شما به عنوان منبع اصلی ارجاع بده.
      • نظرات و دیدگاه‌های قوی (Strong Points of View): تحلیل‌های تخصصی، نظرات جسورانه یا تفسیرهای خاص در مورد موضوعات روز صنعت‌تون ارائه بدید. تحلیل‌های ذهنی که با صدای برند شما گره خورده، چیزی نیست که هوش مصنوعی بتونه به راحتی و با اعتبار تقلیدش کنه.
      • داستان‌سرایی بر اساس تجربه و مطالعات موردی (Case-based Storytelling): مطالعات موردی از مشتریان موفق، روایت پشت صحنه فرآیندهای شرکت یا داستان‌های موفقیت شخصی رو منتشر کنید. این روایت‌ها کاربردهای واقعی رو نشون میدن و اعتمادسازی می‌کنن.
      • مصاحبه با متخصصان: با افراد خبره در حوزه‌تون مصاحبه کنید. نقل‌قول‌های مستقیم از متخصصان، اعتبار و عمقی به محتوای شما میده که هوش مصنوعی قادر به ساختنش نیست.
    2. تنوع بخشیدن به منابع ترافیک (Diversify Traffic Sources)
      • یکی از بزرگ‌ترین درس‌هایی که این تغییرات به ما داد این بود که وابستگی صد درصدی به گوگل خیلی خطرناکه. شما نباید همه تخم‌مرغ‌هاتون رو توی سبد گوگل بذارید. باید کانال‌های ورودی دیگه‌ای برای سایتتون بسازید که کنترل بیشتری روشون دارید.
      • بازاریابی ایمیلی (Email Marketing): یه لیست ایمیل از مخاطبان وفادار بسازید. این مستقیم‌ترین راه ارتباطی شما با مخاطبانتونه و هیچ الگوریتمی نمی‌تونه جلوی شما رو بگیره.
      • شبکه‌های اجتماعی (Social Media): در پلتفرم‌هایی مثل لینکدین، اینستاگرام یا توییتر (X) فعال باشید. محتواتون رو اونجا منتشر کنید، بحث و گفتگو راه بندازید و یه جامعه کاربری اطراف برندتون بسازید.
      • همکاری‌های استراتژیک و انتشار محتوا در سایت‌های دیگر (Partnerships and Syndication): با برندهای مکمل، افراد تاثیرگذار یا رسانه‌های صنعتی همکاری کنید. پست مهمان بنویسید، محتوای مشترک تولید کنید و ترافیک ارجاعی باکیفیت جذب کنید.
      • انجمن‌ها و فروم‌های تخصصی (Community Platforms): در پلتفرم‌هایی مثل Reddit، Quora یا گروه‌های تخصصی تلگرام و دیسکورد که به صنعت شما مرتبطن، حضور فعال داشته باشید.
      • ساختن این کانال‌ها زمان‌بره، اما در بلندمدت کسب‌وکار شما رو در برابر نوسانات الگوریتم‌های گوگل مقاوم می‌کنه.
    3. نظارت و تکرار (Monitor & Iterate)
      • دنیای هوش مصنوعی به سرعت در حال تغییره. استراتژی که امروز جواب میده، ممکنه شش ماه دیگه کارایی نداشته باشه.
      • به طور مداوم کلمات کلیدی هدف‌تون رو برای حضور AI Overviews رصد کنید. از ابزارهایی مثل Semrush یا Ahrefs استفاده کنید تا ببینید برای کدوم کوئری‌ها این خلاصه‌ها ظاهر میشن.
      • عملکردتون رو در گزارش‌های سرچ کنسول زیر نظر داشته باشید و ببینید تغییراتی که در محتوا میدید، چه تاثیری روی آمار کلیک و نمایش شما در AI Overviews میذاره.
      • آماده تست کردن و تغییر باشید. از امتحان کردن فرمت‌های جدید محتوا، ساختارهای متفاوت و رویکردهای تازه نترسید.

    با ترکیب این استراتژی‌ها، شما نه تنها شانس خودتون رو برای دیده شدن در دنیای جدید جستجو بالا می‌برید، بلکه یه کسب‌وکار آنلاین سالم‌تر و پایدارتر می‌سازید که به یه منبع ترافیک خاص وابسته نیست.

    آیا AI Mode به تجربه پیش‌فرض گوگل تبدیل خواهد شد؟

    یکی از داغ‌ترین بحث‌ها در حال حاضر اینه که آیا گوگل قصد داره AI Mode رو به عنوان حالت پیش‌فرض جستجو جایگزین کنه یا نه. یعنی وقتی شما google.com رو باز می‌کنید، به جای کادر جستجوی ساده همیشگی، مستقیما وارد یه محیط چت‌محور بشید.

    این شایعات وقتی قوت گرفت که لوگان کیلپاتریک، یکی از مدیران محصول ارشد گوگل، در جواب به کاربری در شبکه X که گفته بود AI Mode باید حالت پیش‌فرض باشه، فقط یک کلمه نوشت: «به زودی» (Soon). این جواب کوتاه، طوفانی در دنیای سئو به پا کرد و همه رو به این فکر فرو برد که این تغییر بزرگ، خیلی نزدیک‌تر از چیزیه که فکر می‌کنن.

    اما کمی بعد، رابی استاین، معاون محصول در گوگل، سعی کرد این هیجان رو کنترل کنه. او در پاسخ به این خبر نوشت: «زیاد روی این موضوع حساب نکنید. ما داریم روی این تمرکز می‌کنیم که دسترسی به AI Mode رو برای کسانی که می‌خوانش، راحت کنیم».

    این پیام‌های ضد و نقیض نشون میده که حتی خود گوگل هم شاید هنوز تصمیم نهایی رو نگرفته یا حداقل نمی‌خواد اون رو علنی کنه. اما شواهد زیادی وجود داره که نشون میده کفه ترازو به سمت هوش مصنوعی سنگینی می‌کنه:

    • اظهارات مدیران ارشد: همون‌طور که قبلا گفتیم، ساندار پیچای، مدیرعامل گوگل، به وضوح گفته که دوران «۱۰ لینک آبی» تموم شده.
    • سرمایه‌گذاری سنگین: گوگل میلیاردها دلار در توسعه هوش مصنوعی خودش (مثل Gemini) سرمایه‌گذاری کرده و طبیعتا می‌خواد ازش در مهم‌ترین محصولش یعنی جستجو، استفاده کنه.
    • پیش‌فرض شدن AI Overviews: گوگل همین الان هم AI Overviews رو به صورت پیش‌فرض در نتایج جستجوی خیلی از کشورها نشون میده. این می‌تونه یه قدم آزمایشی برای تغییرات بزرگ‌تر باشه.
    • افت کیفیت نتایج سنتی: خیلی از کاربرها و متخصصان معتقدن که کیفیت نتایج جستجوی سنتی گوگل در سال‌های اخیر به خاطر حجم زیاد محتوای بی‌کیفیت و سئو شده، افت کرده و شاید گوگل داره راه حل رو در هوش مصنوعی می‌بینه.

    اگه این اتفاق بیفته و AI Mode پیش‌فرض بشه، اینترنت همون‌طور که ما می‌شناسیمش، برای همیشه تغییر خواهد کرد. این یعنی ترافیک سایت‌ها ممکنه باز هم کاهش پیدا کنه و کسب‌وکارهای وابسته به گوگل با چالش‌های وجودی روبه‌رو بشن.

    جستجو در همه جا (Search Everywhere Optimization)

    این تغییرات یه مفهوم بزرگ‌تر رو به ما یادآوری می‌کنه: جستجو دیگه فقط در google.com اتفاق نمیفته. مردم دارن سوالات‌شون رو از دستیارهای صوتی مثل Google Assistant، در چت‌بات‌ها مثل Gemini، در بخش جستجوی اپلیکیشن‌ها و حتی در شبکه‌های اجتماعی می‌پرسن.

    این یعنی متخصصان سئو باید دیدگاه‌شون رو گسترش بدن. دیگه هدف فقط رتبه گرفتن در لیست نتایج گوگل نیست. هدف جدید باید «قابل کشف بودن» (Discoverability) در تمام این پلتفرم‌ها باشه. این مفهوم جدید رو «بهینه‌سازی برای جستجو در همه جا» (Search Everywhere Optimization) می‌نامند.

    برندهایی که در آینده موفق میشن، اونایی هستن که:

    • محتواشون نه تنها برای خوندن توسط انسان، بلکه برای فهمیده شدن توسط هوش مصنوعی هم بهینه شده.
    • در فرمت‌های مختلف محتوا تولید می‌کنن (متن، ویدئو، پادکست، تصویر) تا در همه پلتفرم‌ها حضور داشته باشن.
    • به جای تمرکز صرف روی کلمات کلیدی، روی ساختن اعتبار و تخصص در یه حوزه خاص تمرکز می‌کنن تا به عنوان یه «موجودیت» (Entity) قابل اعتماد توسط سیستم‌های هوش مصنوعی شناخته بشن.

    در واقع، سئو نمرده، بلکه در حال تکامل پیدا کردن به یه مفهوم بزرگ‌تر به اسم «بهینه‌سازی برای دیده شدن توسط هوش مصنوعی» (AI Visibility Optimization) هست.

    آیا تبلیغات نجات پیدا می‌کنند؟

    در می ۲۰۲۵، گوگل اعلام کرد که AI Overviews به اندازه‌ای درآمد تبلیغاتی ایجاد می‌کنه که با نتایج جستجوی سنتی برابری می‌کنه.

    این خبر خیلی مهمه چون مدل کسب‌وکار گوگل بر پایه درآمد از تبلیغات (به خصوص Google Ads) بنا شده. این یعنی گوگل راهی پیدا کرده که تبلیغات رو به طور موثر در کنار یا داخل این خلاصه‌های هوش مصنوعی نمایش بده و تبلیغ‌دهنده‌ها هم هنوز دارن از این تبلیغات نتیجه می‌گیرن.

    این موضوع برای بازاریاب‌ها چند تا پیام داره:

    • جستجوی پولی (Paid Search) همچنان حیاتیه: اگه ترافیک ارگانیک شما کم شده، تبلیغات در گوگل می‌تونه یه راه موثر برای جبرانش باشه.
    • رقابت برای جایگاه‌های تبلیغاتی جدید: احتمالا رقابت برای نمایش تبلیغات در کنار AI Overviews بیشتر خواهد شد و استراتژی‌های جدیدی برای این کار به وجود میاد.
    • اهمیت تبلیغات بصری: از اونجایی که خلاصه‌های هوش مصنوعی بیشتر متنی هستن، تبلیغات بصری مثل تبلیغات محصول (Shopping ads) یا ویدئویی می‌تونن بیشتر به چشم بیان.

    در نهایت، این یعنی استراتژی بازاریابی دیجیتال شما باید یه تعادل هوشمندانه بین سئوی ارگانیک (که حالا به AEO تبدیل شده)، تبلیغات پولی و تولید محتوای معتبر باشه. دیگه نمی‌تونید فقط روی یکی از اینا تمرکز کنید.

    این دنیای جدید، پر از چالش و عدم قطعیته. اما برای اونایی که سریع یاد می‌گیرن، خودشون رو تطبیق میدن و به جای ترسیدن از تغییر، ازش به عنوان یه فرصت استفاده می‌کنن، می‌تونه شروع یه دوره جدید از رشد و موفقیت باشه. برنده نهایی کسیه که بتونه هم برای انسان‌ها و هم برای ماشین‌ها، محتوای ارزشمند و قابل اعتماد تولید کنه.


    پرسش و پاسخ کلاسی

    خب بچه‌ها، اینم از درس امروز. می‌دونم که حجم اطلاعات زیاد بود و شاید یه سری سوال‌ها هنوز توی ذهن‌تون باشه. برای همین، چند تا از سوال‌های پرتکرار رو اینجا مطرح می‌کنم و بهشون جواب میدم.

    1. سوال ۱: استاد، پس با این حساب سئو دیگه به درد نمی‌خوره و باید کلا بی‌خیالش بشیم؟

      نه اصلا! این یکی از بزرگ‌ترین اشتباهات ممکنه. سئو نمرده، فقط شکلش عوض شده. اگه قبلا سئو مثل مسابقه دو ۱۰۰ متر بود که همه تلاش می‌کردن سریع‌تر به خط پایان (رتبه یک) برسن، الان بیشتر شبیه یه مسابقه ده‌گانه شده. شما باید در رشته‌های مختلفی مهارت داشته باشید: بهینه‌سازی فنی سایت، تولید محتوای عمیق و معتبر (E-E-A-T)، استفاده از داده‌های ساختاریافته (Schema)، ساختن اعتبار برند و… . در واقع، سئو از یه کار تکنیکی صرف، به یه کار استراتژیک و چندوجهی تبدیل شده. پس نه تنها نمرده، بلکه مهم‌تر و پیچیده‌تر هم شده.


    2. سوال ۲: من یه وبلاگ شخصی کوچیک دارم. با این تغییرات چطور می‌تونم با سایت‌های بزرگ رقابت کنم؟

      این یه فرصت عالی برای شماست! سایت‌های بزرگ اغلب محتوای عمومی و گسترده تولید می‌کنن. شما می‌تونید روی یه حوزه خیلی خاص (Niche) تمرکز کنید و در اون زمینه به عمیق‌ترین و معتبرترین منبع تبدیل بشید. هوش مصنوعی گوگل عاشق منابع تخصصیه. علاوه بر این، شما می‌تونید روی بخش «Experience» یا «تجربه» در E-E-A-T مانور بدید. داستان‌های شخصی، تجربیات دست اول و دیدگاه‌های منحصر به فرد شما، چیزهایی هستن که یه شرکت بزرگ نمی‌تونه به راحتی تولید کنه. پس به جای رقابت در زمین اون‌ها، بازی رو به زمین خودتون بکشونید.


    3. سوال ۳: یعنی الان باید تمام محتوای قبلی سایتم رو پاک کنم و از اول بنویسم؟

      نه لزوما. بهترین کار اینه که یه ممیزی محتوا (Content Audit) انجام بدید. محتواهای ارزشمند و پربازدیدتون که هنوز هم مرتبط هستن رو پیدا کنید و اون‌ها رو بر اساس اصول جدید به‌روزرسانی کنید. مثلا براشون بخش FAQ اضافه کنید، ساختارشون رو با تیترها و لیست‌ها بهتر کنید، اطلاعات جدید بهشون اضافه کنید و مطمئن بشید که نویسنده و تخصصش به وضوح مشخص شده. محتواهای قدیمی و بی‌کیفیتی که هیچ بازدیدی ندارن رو هم می‌تونید حذف کنید یا با هم ترکیب کنید تا یه محتوای قوی‌تر بسازید. این کار مثل بازسازی یه خونه‌ست، نه خراب کردن و ساختن از اول.


    4. سوال ۴: گوگل گفته درآمد تبلیغاتش کم نشده. این یعنی در نهایت فقط کسب‌وکارهایی که پول تبلیغات میدن زنده می‌مونن؟

      این یه نگرانی درسته، اما لزوما اینطور نیست. بله، تبلیغات پولی نقش مهم‌تری پیدا می‌کنه، اما یادتون باشه که هوش مصنوعی گوگل برای ساختن جواب‌هاش به محتوای باکیفیت و معتبر «نیاز» داره. اگه هیچ‌کس محتوای خوب تولید نکنه، هوش مصنوعی هم چیزی برای خلاصه کردن نداره. پس همیشه جا برای محتوای ارگانیک باکیفیت وجود خواهد داشت. برندهایی که بتونن به عنوان یه منبع معتبر و قابل اعتماد توسط هوش مصنوعی شناخته بشن، یه نوع «دیده‌شدن رایگان» به دست میارن که حتی از ترافیک مستقیم هم می‌تونه باارزش‌تر باشه، چون اعتبار برندشون رو به شدت بالا می‌بره. پس بازی هنوز برای همه بازه، فقط قوانینش عوض شده.


    منابع

    • [2] What Is AI Mode? Understanding Google’s AI Search Experience
    • [4] Google AI Search Guidelines (2025): What They Mean for SEO • SEO SHERPA™
    • [6] Is Google set to make AI Mode the default search tool? | Mashable
    • [8] Google AI Overviews & AI Mode: Stay Visible in Search
    • [10] Google AI Overviews Ad Revenue Equals Traditional Search
    • [1] Google AI Overviews: How Users Interact with Your Content – Google Search Central Community
    • [3] Google AI Mode in Search Console: Track AI Traffic & SEO Impact
    • [5] AI Overviews vs. Organic Search: The Hidden Impact on CTR – nDash.com
    • [7] Google AI Mode may become the default Google Search experience “soon.”
    • [9] How Google’s 2024 AI Overviews Became a Game-Changer for Search Dynamics | by Shailendra Kumar | Aug, 2025 | Medium
  • رابطه CSS و سئو

    قبل از اینکه بخوایم شیرجه بزنیم توی بحث اصلی، باید با سه تا از اصلی‌ترین ابزارهای ساخت وبسایت‌های امروزی آشنا بشیم: HTML، CSS و جاوا اسکریپت. این سه تا مثل اسکلت، پوست و سیستم عصبی یک وبسایت هستن.

    HTML: اسکلت و ساختار سایت

    HTML که مخفف Hypertext Markup Language هست، مثل فونداسیون و اسکلت یه ساختمون عمل میکنه. این زبان، محتوای سایت شما رو ساختاربندی میکنه، فرقی هم نداره این محتوا متن باشه، عکس باشه یا لینک. برای کسی که میخواد کار سئو تکنیکال انجام بده، آشنایی با HTML خیلی مهمه، چون خیلی وقت‌ها باید مستقیم بره سراغ کدها تا مشکلاتی که روی عملکرد سئو تاثیر میذارن رو پیدا و حل کنه.

    HTML از یه سری «تگ» برای ساختاربندی استفاده میکنه. مثلا:

    • <title>: عنوان صفحه وب رو مشخص میکنه.
    • <h1>: تیتر یا عنوان اصلی صفحه رو نشون میده.
    • <p>: یک پاراگراف از متن رو مشخص میکنه.

    یاد گرفتن HTML کمک میکنه تا مطمئن بشیم موتورهای جستجو مثل گوگل، ساختار اصلی سایت ما رو به درستی درک میکنن.

    CSS: لباس و ظاهر سایت

    CSS که مخفف Cascading Style Sheets هست، مسئولیت ظاهر و حس و حال سایت شما رو به عهده داره. اگه HTML ساختار محتوا رو میچینه، CSS میاد و به اون استایل میده. یعنی مشخص میکنه که مثلا تیترها، متن‌ها و عکس‌ها چطور نمایش داده بشن.

    جالبه بدونید که موتورهای جستجو مثل گوگل، کدهای CSS رو هم پردازش میکنن تا تجربه کاربری سایت رو بهتر بفهمن. برای همین خیلی مهمه که از ترفندهایی مثل مخفی کردن محتوا با CSS استفاده نکنیم، چون موتورهای جستجو میتونن این کار رو تشخیص بدن.

    جاوا اسکریپت: هوش و رفتار سایت

    جاوا اسکریپت به سایت شما قابلیت تعامل و پویایی میده. از چک کردن فرم‌ها گرفته تا اجرای انیمیشن‌ها، همه این کارها با جاوا اسکریپت انجام میشه و میتونه سایت‌ها رو خیلی دینامیک کنه. اما از نظر سئو، یه چالش اینجا وجود داره: جاوا اسکریپت برای پردازش شدن به منابع زیادی احتیاج داره و ممکنه همیشه توسط موتورهای جستجو به طور کامل پردازش نشه، مخصوصا اگه از نوع «client-side» باشه (یعنی توسط مرورگر کاربر اجرا بشه).

    چند تا از کاربردهای رایج جاوا اسکریپت اینها هستن:

    • گوگل آنالیتیکس: برای ردیابی بازدیدکننده‌های سایت.
    • فریمورک‌های جاوا اسکریپت مثل React یا Vue: برای قدرت بخشیدن به سایت‌های تعاملی.

    یادتون باشه که هرچند جاوا اسکریپت تجربه کاربری رو بهتر میکنه، اما باید با احتیاط ازش استفاده کرد، چون ممکنه موتورهای جستجو همیشه اون رو به طور کامل پردازش نکنن.

    بخش دوم: CSS چی هست و چرا اینقدر مهمه؟

    حالا که با سه تفنگدار دنیای وب آشنا شدیم، بیاید تمرکزمون رو بذاریم روی CSS.

    CSS یعنی چی؟

    CSS که به فارسی بهش میگن «کاسکدینگ استایل شیتس» یا «شیوه‌نامه آبشاری»، یه زبان برای توصیف استایل یک سند HTML هست. به زبون ساده‌تر، CSS مشخص میکنه که اجزای مختلف HTML روی صفحه وب چطوری نمایش داده بشن. این زبان میتونه کلی در وقت ما صرفه‌جویی کنه، چون میتونه طرح‌بندی چندین صفحه رو به صورت همزمان کنترل کنه. معمولا تعریف‌های استایل در فایل‌های خارجی با پسوند .css ذخیره میشن. اینطوری، با استفاده از یه شیوه‌نامه، میشه ظاهر کل وبسایت رو فقط با تغییر دادن یک فایل، عوض کرد.

    ساختار کدهای CSS چطوریه؟

    کدهای CSS یه ساختار مشخص دارن:

    • انتخابگر (Selector): به اون بخش از HTML اشاره میکنه که میخوایم بهش استایل بدیم.
    • بلوک تعریف (Declaration Block): شامل یک یا چند تعریف هست که همیشه با نقطه ویرگول (semicolon) از هم جدا میشن.
    • تعریف (Declaration): هر تعریف شامل یک نام ویژگی (property) و یک مقدار (value) هست که با دو نقطه (colon) از هم جدا میشن.
    • تعریف‌ها همیشه با نقطه ویرگول تموم میشن و بلوک‌های تعریف هم داخل آکولاد {} قرار میگیرن.

    بذارید یه مثال بزنیم تا بهتر متوجه بشید. فرض کنید میخوایم رنگ متن همه پاراگراف‌ها رو سبز کنیم:

    p {
      color: green;
    }

    توی این مثال:

    • p انتخابگر ماست که به تگ پاراگراف <p> اشاره میکنه.
    • color نام ویژگی هست.
    • green مقدار اون ویژگی هست.

    این قانون ساده باعث میشه تمام پاراگراف‌های سایت شما متن سبز رنگ داشته باشن.

    Tailwind CSS: یه روش جدید برای استایل دادن

    حالا که با خود CSS آشنا شدیم، بیاید در مورد یکی از فریمورک‌های مدرن و محبوبش یعنی Tailwind CSS صحبت کنیم. تیل‌ویند یک فریمورک «utility-first» هست. یعنی به جای اینکه برای هر بخش از سایت یه کلاس CSS جدا بنویسیم، از یه سری کلاس‌های آماده و معنایی استفاده میکنیم که هر کدوم یه کار مشخص انجام میدن، مثلا رنگ پس‌زمینه رو تنظیم میکنن یا ضخامت فونت رو تغییر میدن.

    یکی از مشکلات همیشگی برنامه‌نویس‌ها، نام‌گذاری چیزهاست. تیل‌ویند این مشکل رو حل کرده. اسم‌گذاری کلاس‌هاش خیلی قابل فهمه و به خاطر سپردنشون هم خیلی راحته. این که دیگه نگران اسم‌گذاری نباشیم و بتونیم بدون نوشتن CSS جدید برای هر بخش، استایل‌ها رو اضافه کنیم، سرعت کار رو به شدت بالا میبره.

    مزیت‌های تیل‌ویند:

    • شخصی‌سازی و تنظیمات: تیل‌ویند از اول با این ذهنیت طراحی شده که قابل شخصی‌سازی باشه. به طور پیش‌فرض، یه سری ابزار آماده مثل پالت رنگی، ویژگی‌های فونت و غیره داره. همه این تنظیمات در فایلی به اسم tailwind.config.js قرار دارن که میتونید هر طور که دوست دارید تغییرش بدید.
    • انعطاف‌پذیری بالا: تیل‌ویند شما رو مجبور به کار خاصی نمیکنه. راه‌های زیادی برای پیاده‌سازی ویژگی‌هاش وجود داره. اگه هنوز دوست دارید خودتون CSS بنویسید، میتونید این کار رو انجام بدید. حتی برای بخش‌های پیچیده‌تر، گاهی بهتره که CSS خالص بنویسیم چون مدیریت بعضی چیزها با کنار هم چیدن کلاس‌ها در HTML خیلی سخت میشه.
    • دستور @apply: وقتی در کنار تیل‌ویند، CSS جدید مینویسید، بهتره از دستور @apply استفاده کنید. این دستور به شما اجازه میده کلاس‌های تکراری رو از HTML بردارید و مستقیم توی فایل CSS قرار بدید. این خیلی خوبه چون میتونید از کلاس‌های تیل‌ویند استفاده کنید و بعدا اگه خواستید تغییری بدید، فقط کافیه فایل tailwind.config.js رو آپدیت کنید، به جای اینکه CSS خالص رو دستکاری کنید.

    آیا شلوغ شدن HTML با کلاس‌ها بده؟

    بزرگترین چیزی که باعث میشه توسعه‌دهنده‌ها از تیل‌ویند دوری کنن، اینه که باید کلی کلاس توی فایل HTML بنویسن و این فایل‌ها رو شلوغ میکنه. شاید به نظر بیاد که این کار با اصل DRY (خودت رو تکرار نکن) در تضاده. اما یادتون باشه که این یه فریمورک utility-first هست. ما ممکنه اسم کلاس رو تکرار کنیم، اما اون کلاس فقط یک استایل رو تعریف میکنه. راه‌هایی هم برای تمیز نگه داشتن HTML وجود داره، مثل همون دستور @apply که گفتیم، یا استفاده از کامپوننت‌ها.

    با اینکه شاید ظاهر HTML شلوغ به نظر برسه، ولی مزیت‌هاش به معایبش میچربه. اینکه کلاس‌ها رو مستقیم در HTML کنار هم میچینید، باعث میشه موقع کدنویسی دیگه نیازی نباشه دائم بین فایل‌های مختلف جابجا بشید.

    بخش سوم: پیوند عمیق بین CSS و سئو

    خب، رسیدیم به بخش هیجان‌انگیز ماجرا. CSS چطوری روی سئو تاثیر میذاره؟

    چرا CSS برای سئو مهمه؟

    CSS به ما اجازه میده که ظاهر و استایل سایت رو از محتوای اصلی جدا کنیم. این جداسازی چند تا فایده بزرگ برای سئو داره:

    • کد تمیزتر برای خزنده‌ها: این جداسازی باعث میشه کد HTML سبک‌تر و تمیزتر باقی بمونه. این چیزیه که خزنده‌های موتورهای جستجو (مثل گوگل‌بات) ترجیح میدن. وقتی کد شما تمیز باشه، اونها راحت‌تر میتونن محتوای اصلی و کلمات کلیدی شما رو پیدا و درک کنن.
    • تاکید روی محتوای مهم: با CSS میشه چیدمان کدها رو بدون تغییر در ظاهر بصری سایت، عوض کرد. اینطوری میشه به خزنده‌های موتور جستجو نشون داد که کدوم بخش از محتوای شما مهم‌تره.

    گوگل رسما اعلام کرده که به CSS شما اهمیت میده. در سال ۲۰۱۴، گوگل راهنمای وبمستر خودش رو آپدیت کرد و توصیه کرد که به گوگل‌بات اجازه دسترسی به فایل‌های CSS و جاوا اسکریپت داده بشه تا بتونه صفحات رو مثل یک مرورگر واقعی ببینه و رندر کنه. این موضوع مخصوصا برای صفحات موبایل مهمه تا گوگل بتونه بررسی کنه که آیا صفحه شما برای موبایل مناسب (mobile-friendly) هست یا نه.

    پس یادتون باشه، مسدود کردن دسترسی گوگل به فایل‌های CSS و JS که برای درک سایت شما لازمه، میتونه به سئوی شما آسیب بزنه. البته این موضوع فقط در صورتی مشکل‌سازه که جلوی پیدا کردن محتوای قابل مشاهده یا رندر شدن درست صفحه رو بگیره. اگه یه سری فایل JS دارید که تاثیری روی محتوا یا طرح‌بندی ندارن، مسدود کردنشون مشکلی ایجاد نمیکنه و جریمه‌ای هم در کار نیست.

    مزایای کلیدی CSS برای سئو

    استفاده استراتژیک از CSS میتونه مزایای زیادی برای سئو داشته باشه:

    • سئوی بهتر: همونطور که گفتیم، با CSS میشه روی اهمیت محتوا برای خزنده‌ها تاکید کرد.
    • دسترسی‌پذیری بیشتر (Accessibility): CSS کدهای HTML رو ساده‌تر میکنه و این باعث میشه سایت برای همه کاربران، مخصوصا اونهایی که با دستگاه‌های دستی مثل موبایل وبگردی میکنن، در دسترس‌تر باشه.
    • دانلود سریع‌تر: کدهای CSS رو میشه در یک فایل خارجی قرار داد. این فایل یک بار توسط کاربر دانلود میشه و بعد در حافظه پنهان (cache) دستگاهش ذخیره میشه. این کار سرعت دانلود رو در مقایسه با روش‌های قدیمی مثل استفاده از جدول‌ها برای چیدمان، خیلی بیشتر میکنه.
    • نگهداری آسان: چون استایل از محتوا جداست، آپدیت کردن و نگهداری سایت خیلی راحت‌تر میشه.
    • سازگاری با مرورگرهای مختلف: CSS کمک میکنه تا سایت شما در مرورگرهای مختلف، ظاهر حرفه‌ای و یکسانی داشته باشه.

    همه این مزیت‌ها در نهایت به بهینه شدن زمان بارگذاری صفحه، سازماندهی بهتر محتوا، تاکید روی کلمات کلیدی مناسب، کاهش نسبت کد به محتوا و استفاده بهینه از کش مرورگر کمک میکنن.

    بخش چهارم: سرعت، پادشاه است! بهینه‌سازی CSS برای بارگذاری سریع‌تر

    یکی از مهم‌ترین فاکتورها در سئو، سرعت بارگذاری سایته. هیچکس دوست نداره برای باز شدن یه صفحه کلی منتظر بمونه. CSS میتونه هم دوست شما باشه و هم دشمن شما در این زمینه. بیاید ببینیم چطور میتونیم ازش به نفع خودمون استفاده کنیم.

    کوچک‌سازی یا Minification

    یکی از اصلی‌ترین تکنیک‌ها برای افزایش سرعت، کوچک‌سازی (Minification) فایل CSS هست. ابزارهای CSS Minifier میان و کاراکترهای غیرضروری مثل فاصله‌ها، خطوط خالی و کامنت‌ها رو از کد شما حذف میکنن، بدون اینکه به عملکردش آسیبی بزنن. این کار حجم فایل رو کم میکنه و در نتیجه، سرعت بارگذاری سایت شما رو به شکل قابل توجهی افزایش میده.

    بذارید یه مثال ببینیم:

    کد قبل از کوچک‌سازی:

    body {
      margin: 0;
      padding: 0;
      background-color: #fff;
    }

    کد بعد از کوچک‌سازی:

    body{margin:0;padding:0;background-color:#fff;}

    می‌بینید؟ کارایی کد یکسانه، اما حجمش خیلی کمتر شده. این کار چهار تا مزیت اصلی داره:

    • زمان بارگذاری سریع‌تر: که تجربه کاربری رو بهتر میکنه.
    • عملکرد بهتر: فایل‌های کوچیک سریع‌تر لود میشن که برای کاربران موبایل و اونهایی که اینترنت کند دارن خیلی مهمه.
    • صرفه‌جویی در زمان: این ابزارها کار رو به صورت خودکار انجام میدن و نیازی به حذف دستی کاراکترها نیست.
    • سئوی بهتر: سایت‌های سریع‌تر، رتبه بهتری از طرف موتورهای جستجو میگیرن.

    مقابله با منابع مسدودکننده رندر (Render-Blocking)

    بعضی از اسکریپت‌ها و فایل‌ها، جلوی رندر شدن و نمایش داده شدن صفحه رو میگیرن تا وقتی که خودشون کامل بارگذاری بشن. این موضوع سرعت رو به شدت پایین میاره. برای حل این مشکل میشه چند تا کار انجام داد:

    • استفاده از defer یا async برای جاوا اسکریپت: توی تنظیمات پروژه در بخش Custom Code، میتونید به اسکریپت‌های غیرضروری خودتون، ویژگی defer یا async رو اضافه کنید. این کار به مرورگر اجازه میده که صفحه رو سریع‌تر لود کنه و منتظر تموم شدن بارگذاری جاوا اسکریپت نمونه.
    • ترکیب کردن فایل‌های CSS: اگه سایت شما از چندین فایل CSS استفاده میکنه، بهتره اونها رو در یک فایل ادغام کنید. این کار تعداد درخواست‌های HTTP رو کم میکنه و باعث میشه صفحه سریع‌تر لود بشه.

    تکنیک‌های دیگر برای افزایش سرعت

    • اعلام Charset: مطمئن بشید که صفحه شما کدگذاری کاراکتر (character encoding) درستی داره تا روان‌تر رندر بشه. میتونید این خط کد رو در بخش Custom Code و زیر تگ meta اضافه کنید: charset="UTF-8".
    • استفاده از preload و preconnect: برای فایل‌های CSS خارجی، از این ویژگی‌ها استفاده کنید. اینها به مرورگر اجازه میدن که قبل از درخواست HTTP، یه اتصال اولیه برقرار کنه که سرعت لود رو به شکل قابل توجهی بهبود میبخشه.
    • کش مرورگر (Browser Caching): با تنظیم کردن یه تاریخ انقضا یا حداکثر عمر در هدرهای HTTP برای منابع ثابت (مثل فایل CSS)، به مرورگر دستور میدید که منابعی که قبلا دانلود کرده رو از حافظه داخلی دستگاه بخونه، به جای اینکه دوباره از شبکه دانلودشون کنه.
    • بارگذاری تنبل (Lazy Loading): این تکنیک اجازه میده عکس‌ها و منابع دیگه فقط زمانی لود بشن که وارد دید کاربر میشن. این کار سرعت و عملکرد رو بهینه میکنه.

    برای اینکه عملکرد سایتتون رو بسنجید و مشکلات باقی‌مونده رو پیدا کنید، میتونید از ابزارهایی مثل Google PageSpeed Insights، Lighthouse یا GTmetrix استفاده کنید. این ابزارها به شما اطلاعات ارزشمندی در مورد عملکرد سایتتون میدن و پیشنهادهایی برای بهبود سرعت ارائه میکنن.

    بخش پنجم: روی لبه تیغ راه نروید! ترفندهای CSS و خط قرمزهای سئو

    بعضی از تکنیک‌های CSS هستن که در گذشته برای اهداف سئویی استفاده میشدن، اما امروز میتونن برای سایت شما خطرناک باشن. گوگل خیلی باهوش‌تر از این حرف‌هاست و خیلی راحت میتونه این ترفندها رو تشخیص بده. بیاید با هم چند تا از این موارد رو بررسی کنیم.

    داستان مخفی کردن متن با CSS

    خیلی از توسعه‌دهنده‌های آگاه به استانداردها، از CSS برای مخفی کردن متن به دلایل موجهی مثل دسترسی‌پذیری یا usability استفاده میکنن. مثلا:

    • لینک‌های پرش (skip links) که به کاربران صفحه‌خوان کمک میکنن سریع به محتوای اصلی برسن.
    • لیبل‌های فرم که به صورت بصری مخفی هستن.
    • تکنیک جایگزینی تصویر (image replacement).
    • نمایش متن راهنما فقط زمانی که کاربر درخواست بده.

    همه اینها دلایل مشروعی برای مخفی کردن متن هستن. اما نگرانی اینجاست که گوگل و بقیه موتورهای جستجو، هر سایتی که از CSS برای مخفی کردن متن استفاده میکنه رو به عنوان اسپمر شناسایی کنن.

    تکنیک معروف text-indent: -9999px

    یکی از تکنیک‌های رایج برای جایگزینی تصویر، استفاده از text-indent: -9999px هست. فرض کنید یه تگ <h1> دارید که میخواید به جای متنش، یه عکس لوگو نمایش بدید. کدش چیزی شبیه این میشه:

    h1 {
      text-indent: -9999px;
      background: url('logo.png');
    }

    این کد متن داخل تگ <h1> رو ۹۹۹۹ پیکسل به سمت چپ هل میده و عملا از صفحه خارجش میکنه، و به جاش یه عکس پس‌زمینه نشون میده. ایده اینه که موتور جستجو متن رو بخونه و کاربر عکس رو ببینه. اما آیا این کار از نظر سئو امنه؟

    بحث‌های زیادی در این مورد وجود داره. بعضی‌ها معتقدن که موتورهای جستجو به استایل شما نگاه نمیکنن و فقط HTML خام رو میبینن. پس براشون فرقی نداره شما متن رو کجا میبرید، چون در هر صورت اون رو در کد HTML شما میبینن. اگه شما دارید سعی میکنید با این روش اسپم رو مخفی کنید، موفق نمیشید چون گوگل HTML رو میبینه، نه صفحه رندر شده رو.

    اما در مقابل، گزارش‌هایی وجود داره که میگه گوگل میتونه و گاهی اوقات کدهای CSS و جاوا اسکریپت شما رو میخونه. پس این احتمال وجود داره که الگوریتم‌ها، هر متنی که با text-indent منفی و بیش از حد از صفحه خارج شده رو به عنوان اسپم در نظر بگیرن و سایت شما رو جریمه کنن.

    نظر گوگل در این باره چیست؟

    مت کاتس (Matt Cutts) که در گوگل کار میکنه، در این مورد گفته: «من توصیه نمیکنم که مردم از CSS برای مخفی کردن متن استفاده کنن». این جمله نگرانی‌های زیادی رو ایجاد کرد.

    اما بعدا در جای دیگری توضیح بیشتری داد و گفت: «اگه دارید مستقیما از CSS برای مخفی کردن متن استفاده میکنید، تعجب نکنید اگه بهش بگن اسپم. … تصور کنید این کار از دید یه بازدیدکننده، یه رقیب، یا کسی که داره یه گزارش اسپم رو بررسی میکنه چطور به نظر میرسه. اگه شما اسم شرکتتون که مثلا Expo Markers هست رو به جای لوگو نشون بدید، مشکلی نیست. اما اگه متنی که تصمیم میگیرید نشون بدید این باشه: «Expo Markers ارزان آنلاین تخفیف خرید آنلاین فروش Expo Markers…» اون موقع من بیشتر احتیاط میکنم، چون این میتونه بد به نظر برسه.»

    پس نیت شما مهمه. اگه به شکل مشروع از این تکنیک استفاده میکنید، احتمالا مشکلی پیش نمیاد. اما اگه دارید سعی میکنید گوگل رو با کلمات کلیدی مخفی فریب بدید، دیر یا زود به مشکل میخورید. گوگل به اندازه کافی باهوش هست که بفهمه چه زمانی یه کار مشکوک در حال انجامه.

    به طور خلاصه، بهتره همیشه جانب احتیاط رو رعایت کنید. محتوا رو برای کاربر بنویسید، نه برای موتورهای جستجو. سعی نکنید گوگل رو فریب بدید، چون در نهایت به ضرر خودتون تموم میشه.

    محتوای تولید شده با ::before و ::after

    اینها یه سری شبه-عنصر (pseudo-elements) در CSS هستن که به توسعه‌دهنده‌ها اجازه میدن محتوای تزئینی (مثل آیکون یا یه سری نماد کوچیک) رو قبل یا بعد از یک عنصر اضافه کنن، بدون اینکه لازم باشه اون رو مستقیم در HTML بنویسن.

    نکته سئویی فوق‌العاده مهم: محتوایی که از طریق ::before یا ::after اضافه میشه، در Document Object Model (DOM) قرار نمیگیره و در نتیجه، توسط سیستم‌های رندرینگ و ایندکس گوگل دیده نمیشه.

    توصیه: از این شبه-عنصرها فقط و فقط برای اهداف تزئینی استفاده کنید. هرگز برای محتوایی که لازمه ایندکس بشه یا مفهوم مهمی رو منتقل میکنه (مثلا اضافه کردن علامت هشتگ به کلمات) از اونها استفاده نکنید. محتوایی که برای درک مطلب حیاتیه، باید همیشه مستقیم در HTML نوشته بشه.

    <img> یا background-image؟ مسئله این است!

    یه سوال رایج اینه که برای نمایش عکس‌ها از تگ <img> در HTML استفاده کنیم یا از ویژگی background-image در CSS؟

    قانون کلی اینه:

    • اگه عکس بخشی از محتوای اصلی شماست، باید از تگ <img> استفاده کنید.
    • اگه عکس صرفا برای تزئین و خوشگلی (eye candy) هست، باید از background-image استفاده کنید.

    چرا این موضوع برای سئو مهمه؟ چون عکس‌هایی که با background-image در CSS قرار داده میشن، توسط موتورهای جستجو به عنوان عکس ایندکس نمیشن. اونها فقط عناصر تزئینی به حساب میان. اما تگ‌های <img> یا <picture> در HTML برای عکس‌های محتوایی هستن که بخشی جدایی‌ناپذیر از مفهوم صفحه شما هستن (مثل عکس محصولات، عکس‌های یک مقاله خبری، یا نمودارها). این عکس‌ها بخشی از DOM هستن، میتونن در جستجوی تصاویر گوگل ایندکس بشن و محتواشون توسط خزنده‌ها درک بشه.

    یکی از دلایلی که متخصص‌های سئو ممکنه از شما بخوان همه عکس‌ها رو به تگ <img> تغییر بدید، اینه که میخوان از ویژگی alt استفاده کنن. alt یا متن جایگزین، برای توصیف عکس برای کسانی هست که نمیتونن عکس رو ببینن (مثلا به خاطر اینترنت کند، یا چون از صفحه‌خوان استفاده میکنن).

    متاسفانه بعضی‌ها از این ویژگی برای انباشت کلمات کلیدی (keyword stuffing) استفاده میکنن که کار اشتباهیه. متن alt باید توصیف دقیق و مفیدی از عکس باشه، نه لیستی از کلمات کلیدی.

    • مثال بد: <img src="آسمان.jpg" alt="ارزان، با کیفیت، ویجت">
    • مثال خوب: <img src="آسمان.jpg" alt="تصویری از آسمان آبی بدون ابر">

    بخش ششم: ابزارهای پیشرفته برای کنترل خزنده‌ها و تحلیل سایت

    حالا که با بایدها و نبایدهای اصلی آشنا شدیم، بیاید کمی عمیق‌تر بشیم و در مورد ابزارها و تکنیک‌های پیشرفته‌تر صحبت کنیم.

    کنترل خزنده‌ها با robots.txt

    فایل robots.txt یه فایل متنی ساده در ریشه سایت شماست که به موتورهای جستجو میگه کدوم بخش‌های سایت رو میتونن بخزن (crawl) و کدوم بخش‌ها رو نه. دستور اصلی برای این کار Disallow هست.

    Disallow یعنی چی؟

    وقتی شما یه صفحه رو Disallow میکنید، دارید به موتورهای جستجو میگید که اون صفحه رو نخزنن. این کار برای صفحاتی که برای کاربر یا ترافیک جستجو ارزشی ندارن (مثلا صفحات داخلی مدیریت یا فایل‌های موقت) مفیده، چون باعث میشه موتورهای جستجو وقتشون رو برای خزیدن اون صفحات هدر ندن.

    چه زمانی نباید از Disallow استفاده کرد؟

    • برای صفحاتی که میخواهید PageRank منتقل کنند: اگه یه URL در robots.txt مسدود بشه، خزیده نمیشه و در نتیجه نمیتونه PageRank (اعتبار) رو به صفحات دیگه منتقل کنه. پس صفحاتی که احتمال داره لینک خارجی بگیرن یا برای لینک‌دهی به صفحات داخلی دیگه ضروری هستن رو Disallow نکنید.
    • برای پارامترها: جان مولر (John Mueller) از گوگل گفته که مسدود کردن پارامترها با Disallow باعث میشه که سیگنال‌های اعتبار برای URL اصلی جمع‌آوری نشن. چون گوگل نمیتونه URLهای دارای پارامتر رو ببینه، متوجه نمیشه که این صفحات در واقع کپی همدیگه هستن. بهترین راه برای مدیریت URLهای پارامتردار، استفاده از ساختار URL تمیز، ریدایرکت‌های ۳۰۱، تگ‌های کنونیکال یا ابزار URL Parameters گوگل هست.
    • برای فایل‌های JS و CSS که به گوگل در درک سایت کمک میکنند: همونطور که قبلا گفتیم، این کار میتونه به سئوی شما ضربه بزنه.

    آیا Disallow جلوی ایندکس شدن رو میگیره؟

    نه! یادتون باشه Disallow فقط جلوی خزیدن (crawling) رو میگیره، نه ایندکس شدن (indexing). اگه یه URL مسدود شده، از جای دیگه‌ای (داخلی یا خارجی) لینک گرفته باشه، ممکنه هنوز در نتایج جستجو ظاهر بشه. در این حالت، گوگل هیچ اطلاعاتی به جز خود URL رو نمیتونه نشون بده و به جای توضیحات، این پیام رو نمایش میده: «به دلیل robots.txt این سایت، توضیحی برای این نتیجه در دسترس نیست.»

    فرمت‌بندی پیشرفته در robots.txt

    گوگل و بینگ از دو عبارت ویژه برای مشخص کردن الگوها در URLها پشتیبانی میکنن:

    • * (wildcard): به معنی «هر دنباله‌ای از کاراکترها».
    • $ (end of URL): برای مشخص کردن URLهایی که با یک الگوی خاص تموم میشن (مثلا پسوند فایل).

    با ترکیب این دو میشه کنترل دقیقی روی خزنده‌ها داشت. چند تا مثال:

    • مسدود کردن یک نوع فایل خاص (مثلا همه PDFها):
    • مسدود کردن هر پوشه‌ای که شامل یک کلمه خاص باشه (مثلا example):
    • مسدود کردن URLهای دارای پارامتر (Query):

    قوانین متناقض Allow و Disallow

    گاهی ممکنه یه URL هم با قانون Allow و هم با قانون Disallow مطابقت داشته باشه. در این حالت، طولانی‌ترین قانون برنده میشه. منظور از طول، تعداد کاراکترها در مسیر بعد از Allow: یا Disallow: هست.

    مثال:

    <pre><code>Allow: /exam* (6 کاراکتر)
    Disallow: /examp* (7 کاراکتر)</code></pre>

    در این مثال، URLای مثل /example.htm مسدود میشه، چون قانون Disallow با ۷ کاراکتر، طولانی‌تر از قانون Allow با ۶ کاراکتره.

    یه نکته جالب اینه که استفاده از * در انتهای یک الگو، اون رو «قوی‌تر» میکنه، چون یه کاراکتر به طولش اضافه میکنه.

    مثال:

    <pre><code>Allow: /example
    Disallow: /example*</code></pre>

    اینجا، URL /example.htm مسدود میشه چون Disallow یه کاراکتر * اضافه داره و طولانی‌تره.

    استفاده از CSS Selectors برای ممیزی سئو

    یه کاربرد خیلی جالب CSS که شاید کمتر شنیده باشید، استفاده از انتخابگرهای CSS (CSS Selectors) برای پیدا کردن بخش‌های خاصی از کد در تمام صفحات سایته. ابزارهایی مثل WebSite Auditor یه قابلیتی به اسم «Custom Search» دارن که به شما اجازه میده با استفاده از انتخابگرهای CSS، دنبال محتوای خاصی بگردید.

    مثلا، میتونید با این روش به راحتی پیدا کنید:

    کدام صفحات…دستور CSS Selector
    اسکریپت گوگل تگ منیجر رو دارن؟noscript:has(iframe[src$=XXX-XXXXXX])
    تگ h1 دارن؟h1
    عکس‌هایی با یک متن alt خاص دارن؟img[alt=green-grass]
    به یک صفحه خاص لینک دادن؟a[href*=page.html]
    لینک ایمیل دارن؟a[href^=mailto:]
    تگ‌های Open Graph رو دارن؟meta[name^=og:]

    این تکنیک به شما قدرت فوق‌العاده‌ای برای تحلیل تکنیکال سایتتون میده.

    بخش هفتم: پرسش و پاسخ کلاسی

    خب، درس امروزمون به پایان رسید. حالا وقتشه چند تا از سوال‌هایی که ممکنه براتون پیش اومده باشه رو با هم مرور کنیم.

    سوال ۱: استاد، پس اسم کلاس‌های CSS که انتخاب میکنم، روی رتبه من در گوگل تاثیری داره؟

    جواب: سوال خیلی خوبیه. نه، اسم کلاس‌های CSS هیچ تاثیر مستقیمی روی سئو ندارن. اونها فقط برای استایل دادن هستن و به عنوان محتوای متنی قابل مشاهده که موتورهای جستجو برای کلمات کلیدی تحلیل میکنن، در نظر گرفته نمیشن.

    سوال ۲: یعنی میتونم یه عالمه کلمه کلیدی رو توی صفحه‌ام بنویسم و بعد رنگشون رو همرنگ پس‌زمینه کنم تا رتبه‌ام بهتر بشه؟

    جواب: ابدا! این یکی از قدیمی‌ترین ترفندهای کلاه سیاهه. گوگل و بقیه موتورهای جستجو خیلی راحت میتونن این کار رو تشخیص بدن، چون اونها کد HTML رو میخونن، نه فقط ظاهر صفحه رو. این کار به عنوان اسپم شناخته میشه و میتونه باعث جریمه شدن شدید سایت شما بشه. پس هرگز این کار رو نکنید.

    سوال ۳: اگه یه صفحه‌ای رو با robots.txt مسدود کنم، یعنی دیگه هیچوقت توی گوگل نشون داده نمیشه؟

    جواب: لزوما نه. همونطور که گفتیم، Disallow فقط جلوی خزیدن گوگل رو میگیره. اگه اون صفحه از سایت‌های دیگه لینک گرفته باشه، گوگل از وجودش با خبر میشه و ممکنه اون رو ایندکس کنه. البته چون نتونسته محتواش رو بخونه، در نتایج جستجو یه عنوان ساده (معمولا خود URL) و یک توضیح عمومی نشون میده.

    سوال ۴: برای لوگوی شرکتم بهتره از تگ <img> استفاده کنم یا از background-image در CSS؟

    جواب: چون لوگو یک بخش مهم از محتوا و هویت برند شماست، قطعا بهتره که از تگ <img> استفاده کنید. اینطوری میتونید یک متن alt مناسب هم براش بنویسید (مثلا «لوگوی شرکت X») که هم برای دسترسی‌پذیری خوبه و هم به موتورهای جستجو کمک میکنه بفهمن اون عکس چیه.

    سوال ۵: میخوام قبل از تیترهام یه سری آیکون جالب بذارم. توی یه آموزش دیدم که با ::before این کار رو میکنن. این برای سئو مشکلی نداره؟

    جواب: تا زمانی که اون آیکون‌ها صرفا تزئینی باشن و هیچ مفهوم مهمی رو منتقل نکنن، استفاده از ::before کاملا درسته و مشکلی برای سئو ایجاد نمیکنه. نکته مهم اینه که خود متن تیتر باید حتما در تگ HTML (مثلا <h2>) نوشته شده باشه. یادتون باشه، هر محتوایی که با ::before یا ::after اضافه بشه، ایندکس نمیشه.

    سوال ۶: گزارش سرعت سایتم میگه باید CSS رو «کوچک‌سازی» یا «minify» کنم. این یعنی چی دقیقا؟

    جواب: کوچک‌سازی یا مینیفای کردن یعنی حذف کردن تمام چیزهای اضافی از فایل CSS شما که برای اجرای کد لازم نیستن. چیزهایی مثل فاصله‌های اضافی، خطوط خالی و کامنت‌هایی که برای راهنمایی خودتون نوشتید. این کار باعث میشه حجم فایل CSS شما کمتر بشه و در نتیجه سریع‌تر دانلود و بارگذاری بشه، که این هم به نوبه خودش سرعت کلی سایت و سئوی شما رو بهتر میکنه.

    منابع

    • [2] Converting a html/css website to WordPress and effects on SEO : r/Wordpress
    • [4] CSS: co to jest? Definicja – Słownik SEO/SEM Delante
    • [6] Google On SEO & CSS
    • [8] Barry Schwartz on X: “Google’s @g33konaut and @JohnMu on CSS and SEO for Google Search https://t.co/HG5KYeITj1 https://t.co/LINvuZJGow” / X
    • [10] Using Custom Search: CSS Selectors – SEO PowerSuite Help Center
    • [12] Removing CSS & JS Files from Index | SEO Forum | Moz
    • [14] critical JS/CSS slows pages – bad for SEO and google ranking – SEO – Squarespace Forum
    • [16] Is there any SEO benefits for using <img> vs background CSS – Marketing – SitePoint Forums | Web Development & Design Community
    • [1] Is Tailwind CSS bad for SEO? – Quora
    • [3] Disallow and Google: An Intermediate SEO Guide: PageRank, JS/CSS, formatting and more
    • [5] text-indent: -9999px = bad seo? – CSS-Tricks
    • [7] Effective CSS Rules for SEO Optimization
    • [9] Google, SEO and using CSS to hide text | 456 Berea Street
    • [11] SEO Issues with Render Blocking, Charset Declaration and Inline CSS – Publishing help / SEO – Forum | Webflow
    • [13] CSS minifier {Free & Online SEO Tool}✴️
    • [15] HTML, CSS, and JavaScript: A Simple SEO Primer
  • Google Trends API چیست؟ راهنمای تحلیل ترندهای جستجو

    میخوایم در مورد یه ابزار جدید از گوگل صحبت کنیم. فرض کنید میتونستید نبض جستجوهای مردم دنیا رو تو دستتون بگیرید و ببینید تو هر لحظه، مردم بیشتر دنبال چه چیزی میگردن. گوگل یه ابزاری برای این کار داره به اسم گوگل ترندز (Google Trends) که احتمالا با وبسایتش کار کردید. حالا خبر جدید اینه که گوگل یه راه خیلی حرفه‌ای‌تر برای دسترسی به این اطلاعات درست کرده که اسمش هست «Google Trends API».

    معرفی Google Trends API

    گوگل در تاریخ ۲۴ جولای ۲۰۲۵ رسما اعلام کرد که نسخه آلفای API گوگل ترندز رو منتشر کرده. این خبر در رویدادی به اسم «Google Search Central Live, Deep Dive APAC 2025» توسط دو نفر از تیم گوگل ترندز، یعنی «دنیل وایزبرگ» و «هداس جاکوبی» اعلام شد. تا قبل از این، تنها راه اصلی برای دیدن داده‌های ترندز، همون وبسایت معروفش بود. اما تو سال‌های اخیر، استفاده از این داده‌ها خیلی بیشتر شده و درخواست‌های زیادی برای ساخت یه API وجود داشت تا اینکه بالاخره این اتفاق افتاد.

    شاید بپرسید فرقش با وبسایت چیه؟ وبسایت برای کارهای روزمره عالیه، اما API به شما اجازه میده به شکل مقیاس‌پذیر و خودکار از این داده‌ها داخل سازمان یا پروژه‌هاتون استفاده کنید. بر اساس تحقیقات اولیه‌ای که گوگل انجام داده، این API میتونه برای گروه‌های مختلفی مفید باشه:

    • محقق‌ها: توسعه‌دهنده‌ها و پژوهشگرها میتونن با استفاده از این داده‌ها روی تخصیص منابع عمومی و اولویت‌های تحقیقات علمی تاثیر بذارن.
    • ناشرها و رسانه‌ها: میتونن موضوعات داغ رو دنبال کنن، ترندهای جدید رو کشف کنن و با استفاده از این داده‌ها، داستان‌های جذابی در مورد مسائل مهم روز تعریف کنن.
    • کسب‌وکارها: متخصص‌های بازاریابی و سئو میتونن برای سرمایه‌گذاری منابعشون اولویت‌بندی کنن و استراتژی محتوای بهتری برای کسب‌وکارشون بچینن.

    به طور کلی، این API به محقق‌ها، ژورنالیست‌ها و توسعه‌دهنده‌ها کمک میکنه تا تحلیل‌های بهتری روی رفتار جستجوی مردم و ترندها داشته باشن.

    این API دقیقا چه اطلاعاتی به ما میده؟

    خب، بریم سراغ جزئیات فنی‌تر. این API چه نوع داده‌ای و با چه مشخصاتی در اختیار ما میذاره؟

    داده‌های مقیاس‌بندی شده به صورت ثابت (Consistently Scaled Data)

    این مهم‌ترین و شاید کمی پیچیده‌ترین ویژگی این API هست. بذارید ساده‌ش کنم.

    وقتی شما تو وبسایت گوگل ترندز یه عبارتی رو جستجو میکنید، نموداری به شما نشون میده که اعدادش بین ۰ تا ۱۰۰ هستن. عدد ۱۰۰ یعنی اوج محبوبیت اون عبارت در بازه زمانی و منطقه جغرافیایی که شما انتخاب کردید. مشکل اینجاست که این مقیاس ۰ تا ۱۰۰ هر بار که شما یه جستجوی جدید انجام میدید، از نو محاسبه میشه. یعنی اگه امروز برای کلمه «فوتبال» در یک سال گذشته جستجو کنید و فردا هم همین کار رو بکنید، ممکنه مقیاس نمودار کمی فرق کنه، چون نسبت به کل جستجوها سنجیده میشه.

    اما API از یه روش مقیاس‌بندی متفاوت و ثابت استفاده میکنه. این یعنی اعدادی که از API میگیرید، در درخواست‌های مختلف پایدار هستن. این ویژگی به شما اجازه میده داده‌های چند تا درخواست مختلف رو با هم ترکیب، مقایسه و ادغام کنید. این اعداد، حجم جستجوی مطلق نیستن، بلکه «میزان علاقه به جستجو» رو نشون میدن.

    مزیت این روش چیه؟ برای مثال، فرض کنید شما میخواید میزان محبوبیت چند تا کلمه کلیدی رو در طول زمان زیر نظر بگیرید. با استفاده از API، کافیه هر چند وقت یک بار، فقط داده‌های مربوط به همون دوره جدید رو بگیرید و به داده‌های قبلیتون اضافه کنید. اما در وبسایت، شما مجبور بودید هر بار کل بازه زمانی رو از اول درخواست بدید، چون مقیاس ۰ تا ۱۰۰ در هر درخواست تغییر میکرد.

    یه مزیت دیگه هم اینه که وبسایت ترندز به شما اجازه میده فقط ۵ تا عبارت رو با هم مقایسه کنید، ولی با API میشه ده‌ها عبارت مختلف رو خیلی راحت‌تر با هم مقایسه کرد.

    بازه زمانی و دسته‌بندی داده‌ها

    بر اساس تحلیل‌های گوگل، بیشتر تحلیل‌ها در بازه زمانی ۵ ساله انجام میشن. به همین دلیل، داده‌های این API یک پنجره چرخشی ۱۸۰۰ روزه (یعنی تقریبا ۵ سال) رو پوشش میده. این بازه ۵ ساله به محقق‌ها و ژورنالیست‌ها کمک میکنه تا به رویدادهای مهم گذشته مثل انتخابات (که معمولا هر ۴ سال یک باره) یا رویدادهای ورزشی (مثل المپیک و جام جهانی) نگاه کنن و تحلیلشون کنن. این داده‌ها هم همیشه به‌روز هستن و اطلاعات رو تا ۴۸ ساعت یا ۲ روز قبل در اختیار شما میذارن.

    از نظر دسته‌بندی زمانی (Aggregation)، شما انعطاف زیادی دارید. میتونید داده‌ها رو به صورت روزانه، هفتگی، ماهانه و سالانه دریافت کنید. این تنوع به توسعه‌دهنده‌ها کمک میکنه تا داده‌های ترندز رو راحت‌تر با سیستم‌ها و گزارش‌های خودشون ترکیب و دستکاری کنن.

    داده‌های جغرافیایی

    این API به شما اجازه میده داده‌ها رو بر اساس موقعیت جغرافیایی هم فیلتر کنید. شما میتونید تفکیک منطقه‌ای (Region) و زیرمنطقه‌ای (Sub-region) رو داشته باشید. این تقسیم‌بندی بر اساس استاندارد معروف ISO 3166-2 انجام میشه. پس میشه علاقه به جستجو رو در سطح کشورها، ایالت‌ها یا حتی گاهی شهرها هم بررسی کرد.

    چه چیزی در این API وجود نداره؟

    یه نکته مهم اینه که این API شامل بخش «Trending Now» یا همون جستجوهای داغ لحظه‌ای نمیشه. تمرکز اصلی روی داده‌های بخش «Explore» وبسایت ترندز هست.

    یه نگاه به پشت صحنه: نمونه درخواست و پاسخ API

    هداس جاکوبی در کنفرانس معرفی این API، یه نمونه کد پایتون برای درخواست دادن به این API و پاسخی که دریافت میشه رو نشون داد تا یه دید کلی از نحوه کار باهاش به دست بیاریم.

    نمونه درخواست (Request):

    # Create a client
    client = TrendsApiClient()
    
    # Create a request
    time_series_request = {
     "terms": ["/m/02vxn", "/m/012l1r"],
     "time_range": {
      "start_time": (2024-01-01),
      "end_time": (2024-03-31),
     },
     "granularity": "WEEKLY",
     "restriction": {
      "region": "US"
     }
    }
    
    # Run a query for the time series
    time_series = client.get_time_series(time_series_request)

    نمونه پاسخ (Response):

    print(time_series)
    {
      "points": [
        {
          "time_range": {
            "start_time": (2024-01-01),
            "end_time": (2024-01-07),
          },
          "search_interest": 4400.0,
          "scaled_search_interest": 62,
        },
        {
          "time_range": {
            "start_time": (2024-01-08),
            "end_time": (2024-01-14),
          },
          "search_interest": 7100.0,
          "scaled_search_interest": 100,
        },
        …
      ]
    }

    همونطور که تو پاسخ میبینید، برای هر بازه زمانی (اینجا هفتگی)، یه عدد search_interest و یه عدد scaled_search_interest برگردونده میشه که همون مقیاس ثابت و پایدار هست.

    هنوز در مرحله آزمایشی: آلفا یعنی چی؟

    این API فعلا در مرحله «آلفا» قرار داره. این یعنی هنوز یه محصول نهایی و آماده برای استفاده عمومی نیست. گوگل میخواد با کمک یه تعداد محدود از توسعه‌دهنده‌ها، این ابزار رو تست کنه، ایراداتش رو پیدا کنه و بر اساس بازخوردها، محصول نهایی رو بهتر کنه.

    به همین دلیل، گوگل دنبال توسعه‌دهنده‌هایی میگرده که دوست دارن با ابزارهای جدید کار کنن و در فرایند توسعه اونها مشارکت کنن. اگه کسی چنین شرایطی داشته باشه، میتونه برای دسترسی زودهنگام به این API درخواست بده. دسترسی به صورت تدریجی و طی هفته‌ها و ماه‌های آینده برای افراد بیشتری باز میشه. تمرکز گوگل در این مرحله روی کسانی هست که دقیقا میدونن میخوان با این API چه کاری انجام بدن و میتونن بازخورد مستقیم و مفیدی ارائه کنن.


    پرسش و پاسخ: چند نکته مهم که باید در مورد داده‌های گوگل ترندز بدونید

    خب، حالا که با API جدید آشنا شدیم، بیاید چند تا سوال مهم و اساسی رو در مورد خود داده‌های گوگل ترندز مرور کنیم. این‌ها نکاتی هستن که چه با وبسایت کار کنید و چه با API، باید حواستون بهشون باشه.

    سوال ۱: این داده‌ها کل جستجوهای گوگل رو شامل میشن یا فقط یه نمونه هستن؟

    پاسخ: داده‌های گوگل ترندز بر اساس نمونه‌ای بزرگ اما فیلتر نشده از جستجوهای واقعی گوگل هستن. این داده‌ها چند تا ویژگی دارن: ناشناس هستن (هویت هیچ شخصی مشخص نمیشه)، دسته‌بندی میشن (موضوع هر جستجو مشخص میشه) و تجمیع میشن (با هم گروه‌بندی میشن).

    اینکه چرا از کل داده‌ها استفاده نمیشه، دلیل ساده‌ای داره. گوگل روزانه میلیاردها جستجو رو پردازش میکنه و دسترسی دادن به کل این حجم از داده، پردازش سریع اونها رو غیرممکن میکنه. با نمونه‌برداری، میشه به یه مجموعه داده نماینده از کل جستجوها نگاه کرد و در عین حال، اطلاعات رو در عرض چند دقیقه بعد از یه اتفاق در دنیای واقعی، تحلیل کرد.

    سوال ۲: «نرمال‌سازی داده» که در موردش صحبت شد، دقیقا یعنی چی؟

    پاسخ: گوگل ترندز داده‌های جستجو رو نرمال‌سازی میکنه تا مقایسه عبارت‌های مختلف با هم ساده‌تر بشه. این فرایند به این شکله:

    1. هر نقطه داده بر کل جستجوهای اون منطقه جغرافیایی و بازه زمانی تقسیم میشه. این کار برای مقایسه محبوبیت نسبی انجام میشه. وگرنه، مناطقی که بیشترین حجم جستجو رو دارن (مثل شهرهای بزرگ)، همیشه در رتبه‌های بالا قرار میگرفتن.
    2. اعداد به دست اومده، بر اساس نسبت اون موضوع به کل جستجوها در همه موضوعات، روی یه مقیاس ۰ تا ۱۰۰ قرار میگیرن.

    یه نکته مهم: اگه دو منطقه مختلف برای یه عبارت، میزان علاقه به جستجوی یکسانی رو نشون بدن، این لزوما به این معنی نیست که حجم کل جستجوهاشون هم یکسان بوده.

    سوال ۳: آیا این داده‌ها کاملا تمیز و بدون خطا هستن؟

    پاسخ: داده‌های گوگل ترندز بازتاب جستجوهای روزمره مردم هستن، اما میتونن فعالیت‌های جستجوی غیرعادی رو هم شامل بشن. برای مثال، جستجوهای خودکار (توسط ربات‌ها) یا جستجوهایی که ممکنه برای اسپم کردن نتایج جستجو انجام بشن.

    گوگل مکانیزم‌هایی برای شناسایی و فیلتر کردن این فعالیت‌های غیرعادی داره، اما ممکنه به عنوان یه اقدام امنیتی، این جستجوها در گوگل ترندز باقی بمونن. چرا؟ چون اگه این جستجوها از ترندز حذف بشن، کسانی که این حملات رو انجام میدن متوجه میشن که شناسایی شدن و این کار، فیلتر کردن فعالیتشون در بقیه محصولات گوگل (جایی که دقت داده‌ها حیاتی‌تره) رو سخت‌تر میکنه. پس یادتون باشه که داده‌های ترندز آینه کاملا دقیقی از فعالیت جستجو نیستن.

    سوال ۴: پس چه نوع جستجوهایی از داده‌های ترندز حذف میشن؟

    پاسخ: بله، گوگل ترندز بعضی از جستجوها رو به طور مشخص فیلتر میکنه:

    • جستجوهایی که توسط تعداد خیلی کمی از افراد انجام شده: ترندز فقط داده‌های مربوط به عبارت‌های محبوب رو نشون میده. برای همین، عبارت‌هایی که حجم جستجوی خیلی پایینی دارن به صورت «۰» نمایش داده میشن.
    • جستجوهای تکراری: جستجوهای تکراری از یک شخص در یک بازه زمانی کوتاه حذف میشن.
    • کاراکترهای خاص: جستجوهایی که دارای آپاستروف و کاراکترهای خاص دیگه هستن، فیلتر میشن.
    • جستجوهای انجام شده توسط محصولات و سرویس‌های گوگل: این شامل جستجوهای داخلی که توسط «AI Mode» و «AI Overviews» انجام میشه هم هست.
    سوال ۵: میشه از این داده‌ها مثل نظرسنجی استفاده کرد؟ مثلا برای پیش‌بینی نتیجه انتخابات؟

    پاسخ: نه! گوگل ترندز یک نظرسنجی علمی نیست و نباید با داده‌های نظرسنجی اشتباه گرفته بشه. این ابزار فقط «علاقه به جستجو» در مورد موضوعات خاص رو نشون میده. افزایش ناگهانی جستجو برای یه موضوع به این معنی نیست که اون موضوع «محبوب» هست یا داره «برنده» میشه. فقط نشون میده که به دلایل نامشخصی، کاربران زیادی دارن در مورد اون موضوع جستجو میکنن. همیشه باید داده‌های گوگل ترندز رو فقط به عنوان یکی از چندین نقطه داده در نظر گرفت و بعد نتیجه‌گیری کرد.

    سوال ۶: فرق داده‌های گوگل ترندز با داده‌هایی که «Google News Lab» منتشر میکنه چیه؟

    پاسخ: برای رویدادهای بزرگ، ممکنه Google News Lab داده‌هایی رو (مثلا از طریق توییتر) به اشتراک بذاره که از طریق ابزار عمومی گوگل ترندز قابل دسترسی نیستن. گوگل این داده‌ها رو هم از نظر فعالیت‌های غیرعادی زیر نظر داره. اما مثل داده‌های عادی ترندز، این‌ها هم علمی نیستن و ممکنه آینه دقیقی از فعالیت جستجو نباشن.

    سوال ۷: تفاوت گوگل ترندز با «تکمیل خودکار» یا Autocomplete گوگل چیه؟

    پاسخ: Autocomplete یه ویژگی در جستجوی گوگل هست که طراحی شده تا شما جستجوهاتون رو سریع‌تر تایپ کنید. پیش‌بینی‌های اون بر اساس جستجوهای واقعی و رایجی هست که در گوگل اتفاق میفته و به حروفی که شما وارد میکنید، موقعیت مکانی و جستجوهای قبلیتون مرتبطه.

    برخلاف گوگل ترندز، Autocomplete تابع سیاست‌های حذف محتوای گوگل و فیلترهای الگوریتمی هست که سعی میکنن پیش‌بینی‌های ناقض قوانین رو نشون ندن. به همین دلیل، نباید Autocomplete رو بازتابی از محبوب‌ترین عبارت‌های جستجو در یک موضوع دونست.

    سوال ۸: تفاوتش با داده‌های جستجوی AdWords (گوگل ادز) چیه؟

    پاسخ: گزارش عبارت‌های جستجو در گوگل ادز برای تبلیغ‌دهنده‌ها طراحی شده و اطلاعاتی در مورد حجم جستجوی ماهانه و میانگین ارائه میده. در حالی که گوگل ترندز برای بررسی عمیق‌تر داده‌های جزئی‌تر و در لحظه (real-time) طراحی شده.

    سوال ۹: نمودارهایی که تو صفحه Explore گوگل ترندز میبینیم، بر اساس چه منطقه زمانی هستن؟

    پاسخ: این بستگی به بازه زمانی داره که شما انتخاب میکنید:

    • برای بازه‌های زمانی ۳۰ روز یا طولانی‌تر: داده‌های نمودار از زمان جهانی هماهنگ (UTC) استفاده میکنن. این باعث میشه یه استاندارد جهانی ثابت وجود داشته باشه و مقایسه ترندهای طولانی‌مدت در مناطق مختلف، بدون پیچیدگی‌های مناطق زمانی محلی یا تغییرات ساعت تابستانی، راحت‌تر باشه.
    • برای بازه‌های زمانی ۷ روز یا کوتاه‌تر: داده‌های نمودار از منطقه زمانی محلی خود شما (که در مرورگر یا دستگاهتون تنظیم شده) استفاده میکنن. این برای داده‌های ساعتی یا روزانه مفیده چون درک نوسانات در لحظه رو با توجه به اتفاقات روزمره در منطقه خودتون راحت‌تر میکنه.

    منابع

    • [2] Introducing the Google Trends API (alpha): a new way to access Search Trends data  |  Google Search Central Blog  |  Google for Developers
    • [4] Google Trends API (Alpha) Launching: Breaking News From Search Central Live
    • [1] FAQ about Google Trends data – Trends Help
    • [3] Google Trends API Alpha | Google Search Central  |  Documentation  |  Google for Developers
  • پرداخت در ازای خزش، ایده کلادفلر که برای سایت‌ها درآمد ایجاد می‌کند

    تا حالا شده یک چیزی بسازی، کلی براش زحمت بکشی، بعد یک نفر بیاد خیلی راحت ازش استفاده کنه، باهاش کلی چیز جدید درست کنه و معروف بشه، اما حتی یک تشکر خشک و خالی هم از تو نکنه؟ خب، یه همچین داستانی چند وقتیه که توی دنیای اینترنت برای تولیدکننده‌های محتوا، از نویسنده‌های بزرگ گرفته تا اونایی که یک وبلاگ کوچیک دارن، پیش اومده. بازیگر جدید این داستان، ربات‌های هوش مصنوعیه و به نظر میرسه معامله قدیمی اینترنت دیگه جواب نمیده. حالا یک شرکت بزرگ به اسم کلاودفلر (Cloudflare) با یک ایده جدید وارد میدون شده که میخواد قوانین بازی رو عوض کنه. بیا با هم ببینیم این ماجرا از کجا شروع شد و قراره به کجا برسه.

    معامله قدیمی اینترنت: ترافیک در برابر محتوا

    برای اینکه داستان جدید رو خوب بفهمیم، اول باید برگردیم عقب و ببینیم اینترنت تا قبل از این چطوری کار میکرد. حدود سی سال پیش، دو تا دانشجوی استنفورد یک پروژه تحقیقاتی به اسم «بک‌راب» (Backrub) رو شروع کردن. اون پروژه بعدها تبدیل شد به گوگل و گوگل هم سنگ بنای یک مدل اقتصادی بزرگ رو در اینترنت گذاشت.

    یک جور معامله نانوشته بین گوگل و کسایی که محتوا تولید میکردن (مثل سایت‌های خبری، وبلاگ‌ها، فروشگاه‌ها) شکل گرفت. معامله ساده بود:

    • تولیدکننده‌های محتوا به گوگل میگفتن: «بیا، اجازه داری کل سایت من رو کپی کنی و توی نتایج جستجوت نشون بدی».
    • گوگل هم در جواب میگفت: «باشه، در عوض من هم کاربرا رو از صفحه جستجو میفرستم به سایت تو».

    اینجا بود که بازی برد-برد به نظر میرسید. صاحب سایت از اون بازدیدکننده‌ها یا همون «ترافیک» پول درمیاورد؛ یا با تبلیغات، یا با فروش اشتراک یا هر روش دیگه‌ای. گوگل هم برای اینکه این چرخه کامل بشه، یک اکوسیستم کامل درست کرد:

    • گوگل سرچ (Google Search): ترافیک رو تولید میکرد.
    • گوگل ادسنس (AdSense): ابزاری بود که به صاحب سایت کمک میکرد از اون ترافیک پول دربیاره.
    • گوگل انلیتیکس (Google Analytics): ابزاری بود که میشد باهاش همه چیز رو اندازه گرفت و تحلیل کرد.

    این سیستم دهه‌ها کار کرد و چیزی بود که اینترنت باز و آزاد رو زنده نگه داشته بود. اما حالا، این معامله داره از هم میپاشه. برای اولین بار، سهم گوگل از بازار جستجو داره کم میشه و جاش رو یک پدیده جدید گرفته: هوش مصنوعی.

    بازیگر جدید از راه میرسه: ربات‌های هوشمند و پدیده «صفر کلیک»

    با ظهور چت‌بات‌های هوش مصنوعی مثل چت‌جی‌پی‌تی (ChatGPT) و مدل‌های زبان بزرگ (LLM)، یک سری ربات جدید به اسم «خزنده» یا «کراولر» (Crawler) به اینترنت اضافه شدن. کار این ربات‌ها با ربات‌های جستجوگر قدیمی مثل گوگل فرق داره. اونا فقط سایت‌ها رو کپی نمیکنن که توی نتایج نشون بدن؛ اونا محتوای سایت‌ها رو میبلعن تا «یاد بگیرن» و مغز هوشمند خودشون رو آموزش بدن.

    نتیجه چی میشه؟ شما از هوش مصنوعی یک سوال میپرسی، اون هم با استفاده از اطلاعاتی که از هزاران سایت جمع کرده، یک جواب کامل و حاضر و آماده بهت میده. دیگه نیازی نیست روی لینکی کلیک کنی و به سایت اصلی سر بزنی. به این میگن پدیده «صفر کلیک» (zero-click).

    اینجا بود که اون معامله قدیمی به هم خورد. ربات‌های هوش مصنوعی دارن از محتوای باکیفیت روزنامه‌نگارها، نویسنده‌ها و متخصص‌ها استفاده میکنن، اما تقریبا هیچ بازدیدکننده‌ای به سایت‌های اونا برنمیگردونن. ترافیک سایت‌ها به شدت افت کرده و در نتیجه درآمدشون هم کم شده. در واقع، کار و زحمت اونا داره نسل بعدی هوش مصنوعی رو آموزش میده، بدون اینکه چیزی نصیبشون بشه.

    آمار دروغ نمیگه: یک مبادله ناعادلانه

    برای اینکه ببینی این مبادله چقدر یک‌طرفه شده، به این آمارها که شرکت کلاودفلر منتشر کرده نگاه کن. این آمارها نشون میدن که ربات‌های هوش مصنوعی چند بار یک سایت رو میخونن (خزش یا اسکرِیپ میکنن) و در ازاش چند تا بازدیدکننده به اون سایت میفرستن:

    • ده سال پیش: گوگل به ازای هر بازدیدکننده‌ای که به یک سایت میفرستاد، ۲ صفحه از اون سایت رو میخوند.
    • شش ماه پیش:
      • گوگل: به ازای هر ۱ بازدیدکننده، ۶ بار سایت رو میخوند.
      • اوپن‌ای‌آی (OpenAI): به ازای هر ۱ بازدیدکننده، ۲۵۰ بار سایت رو میخوند.
      • انتروپیک (Anthropic): به ازای هر ۱ بازدیدکننده، ۶ هزار بار سایت رو میخوند.
    • امروز:
      • گوگل: به ازای هر ۱ بازدیدکننده، ۱۸ بار سایت رو میخوند.
      • اوپن‌ای‌آی: به ازای هر ۱ بازدیدکننده، ۱,۵۰۰ بار سایت رو میخوند.
      • انتروپیک: به ازای هر ۱ بازدیدکننده، ۶۰ هزار بار سایت رو میخوند.

    یک گزارش دیگه از تک‌کرانچ (TechCrunch) هم که به داده‌های ماه ژوئن اشاره داره، این اعداد رو تایید میکنه: ربات اوپن‌ای‌آی به ازای هر یک ارجاع، ۱۷۰۰ بار سایت رو خراشیده و ربات انتروپیک ۷۳ هزار بار. روند کاملا مشخصه: هوش مصنوعی میخونه، یاد میگیره و جواب میده، اما خیلی کم پیش میاد که کاربر رو به منبع اصلی بفرسته.

    راه‌حل جدید کلاودفلر: «پرداخت به ازای خزش» (Pay per Crawl)

    کلاودفلر یک شرکت خیلی بزرگه که خدمات شبکه تحویل محتوا یا CDN ارائه میده. اگه بخوایم ساده بگیم، مثل یک دروازه‌بان و سرویس‌دهنده خیلی سریع برای حدود ۲۰ درصد کل وب‌سایت‌های دنیا عمل میکنه. سایت‌های معروفی مثل ردیت، مدیوم، شاپیفای و گاردین از خدمات این شرکت استفاده میکنن. این یعنی وقتی کلاودفلر تصمیمی بگیره، میتونه اون رو در مقیاس خیلی خیلی بزرگی اجرا کنه.

    این شرکت حالا برای حل مشکل بالا، یک راهکار جدید به اسم «پرداخت به ازای خزش» (Pay per Crawl) رو معرفی کرده. ایده اصلی اینه که به جای دو گزینه قدیمی (یا به ربات‌ها اجازه دسترسی رایگان بده یا کلا مسدودشون کن)، یک گزینه سوم روی میز میذاره: ازشون پول بگیر.

    این سیستم که فعلا در نسخه بتای خصوصی قرار داره، به صاحب سایت‌ها این قدرت رو میده که برای محتواشون قیمت تعیین کنن. به این ترتیب، یک رابطه جدید و مبتنی بر اجازه بین ناشرها و شرکت‌های هوش مصنوعی شکل میگیره.

    این سیستم چطوری کار میکنه؟

    ساز و کار فنی این ایده خیلی جالبه و روی زیرساخت‌های فعلی وب ساخته شده:

    • مسدودسازی پیش‌فرض: کلاودفلر اعلام کرده که به زودی، به طور پیش‌فرض جلوی تمام ربات‌های خزنده هوش مصنوعی رو برای سایت‌هایی که از خدماتش استفاده میکنن، میگیره. این یعنی اگه شما یک سایت جدید روی کلاودفلر راه‌اندازی کنی، ربات‌هایی مثل جی‌پی‌تی‌بات (GPTBot) دیگه نمیتونن به محتوای شما دسترسی داشته باشن، مگر اینکه خودت بهشون اجازه بدی.
    • بازار پرداخت به ازای خزش: اینجا جاییه که صاحب سایت میتونه تصمیم بگیره با ربات‌ها چیکار کنه. برای هر ربات هوش مصنوعی، سه تا انتخاب وجود داره:
      • اجازه دادن (Allow): میتونی به ربات اجازه بدی مثل قبل به صورت رایگان به محتوات دسترسی داشته باشه. در این حالت، سرور کد 200 OK رو برمیگردونه.
      • مسدود کردن (Block): میتونی کلا جلوی دسترسی ربات رو بگیری. سرور کد 403 Accessed Denied رو برمیگردونه که یعنی دسترسی ممنوعه.
      • دریافت هزینه (Charge): میتونی برای هر بار خزش یا بازدید ربات، یک قیمت مشخص کنی.
    • استفاده از کد ۴۰۲: وقتی یک ربات هوش مصنوعی میخواد به سایتی دسترسی پیدا کنه که گزینه «دریافت هزینه» رو فعال کرده، سرور سایت یک کد خیلی کم‌استفاده به اسم 402 Payment Required رو به ربات برمیگردونه. این کد به ربات میگه: «برای دیدن این محتوا باید پول پرداخت کنی». همراه این کد، اطلاعات قیمت هم فرستاده میشه.
    • پرداخت و دسترسی: حالا توپ تو زمین شرکت هوش مصنوعیه.
      • اگه ربات با پرداخت موافق باشه، یک درخواست دیگه با اطلاعات پرداخت میفرسته و بعدش محتوا رو با کد 200 OK دریافت میکنه.
      • اگه نخواد پول بده، دیگه دسترسی بهش داده نمیشه.
    • احراز هویت ربات‌ها: برای اینکه ربات‌ها نتونن هویت خودشون رو جعل کنن، کلاودفلر از امضاهای رمزنگاری شده Ed25519 استفاده میکنه. این کار مثل چک کردن کارت شناسایی رباته تا مطمئن بشن خودشه.
    • پرداخت آسان: خود کلاودفلر نقش واسطه مالی رو بازی میکنه. یعنی پول رو از شرکت‌های هوش مصنوعی میگیره و به حساب ناشرها واریز میکنه. اینطوری دیگه نیازی به قراردادهای پیچیده یا ارزهای دیجیتال نیست.

    متیو پرینس، مدیرعامل کلاودفلر، این روز رو «روز استقلال محتوا» (Content Independence Day) نامیده که در تاریخ ۱ ژوییه ۲۰۲۵ معرفی شده.

    کدام ربات‌ها مسدود میشن؟

    کلاودفلر هنوز لیست دقیقی از ربات‌هایی که مسدود میشن ارائه نکرده، اما اونها رو به سه دسته تقسیم کرده:

    • دستیار هوش مصنوعی (AI Assistant): مثل Perplexity-User و DuckAssistBot.
    • خزنده هوش مصنوعی (AI Crawler): مثل ربات گوگل بارد و ChatGPT.
    • جستجوی هوش مصنوعی (AI Search): مثل OAI-SearchBot.

    مدیرعامل کلاودفلر همچنین در شبکه اجتماعی ایکس اعلام کرده که «جمینی (Gemini) به صورت پیش‌فرض مسدود است». احتمالا صاحب سایت‌ها میتونن مشخص کنن که دقیقا کدوم ربات‌ها یا کدوم دسته‌ها رو مسدود یا مجاز کنن.

    طبق آمار خود کلاودفلر، فعال‌ترین ربات‌ها در شبکه این شرکت اینا هستن:

    • بایت‌اسپایدر (Bytespider): ربات شرکت بایت‌دنس (شرکت مادر تیک‌تاک) که از ۴۰.۴ درصد دامنه‌های تحت حفاظت کلاودفلر بازدید میکنه.
    • جی‌پی‌تی‌بات (GPTBot): ربات شرکت اوپن‌ای‌آی با ۳۵.۵ درصد بازدید.
    • کلادبات (ClaudeBot): ربات شرکت انتروپیک با ۱۱.۲ درصد بازدید.

    جالبه که جی‌پی‌تی‌بات، با اینکه از همه معروف‌تره، یکی از ربات‌هایی هست که بیشتر از بقیه در این شبکه مسدود میشه.

    واکنش‌ها به این طرح جدید چه بوده؟

    این ایده جدید کلاودفلر، مثل هر تغییر بزرگی، موافق‌ها و مخالف‌های خودش رو داره. بیا ببینیم هر گروه چی میگه.

    ناشران بزرگ: یک تغییردهنده بازی

    ناشران بزرگ و شرکت‌های رسانه‌ای معتبر به شدت از این طرح استقبال کردن. برای اونها، این یک اهرم فشار قدرتمنده تا بالاخره بتونن در مقابل استفاده بدون اجازه از محتواشون، پول دریافت کنن.

    • راجر لینچ، مدیرعامل کاند نست (Condé Nast): این حرکت رو یک «تغییردهنده بازی برای ناشران» توصیف کرده که «یک استاندارد جدید برای احترام به محتوا در فضای آنلاین تعیین میکنه. وقتی شرکت‌های هوش مصنوعی دیگه نتونن هر چیزی رو که میخوان به صورت رایگان بردارن، دری به سوی نوآوری پایدار بر اساس اجازه و همکاری باز میشه.»
    • نیل ووگل از دات‌دش مردیت (Dotdash Meredith): میگه: «ما مدت‌هاست که میگیم پلتفرم‌های هوش مصنوعی باید برای استفاده از محتوای ما به ناشران و تولیدکنندگان محتوا غرامت منصفانه‌ای بپردازن. حالا میتونیم دسترسی به محتوامون رو به اون دسته از شرکای هوش مصنوعی محدود کنیم که مایل به مشارکت در ترتیبات منصفانه هستن.»
    • رن توریانو از گنت (Gannett): بر اهمیت این موضوع تاکید میکنه: «مسدود کردن برداشت غیرمجاز و استفاده از محتوای اصلی ما بدون جبران منصفانه، بسیار مهمه… ما خوش‌بینیم که فناوری کلاودفلر به مبارزه با سرقت مالکیت فکری ارزشمند کمک خواهد کرد.»
    • بیل ردی، مدیرعامل پینترست (Pinterest): توضیح میده که چطور این مدل با ماموریت اونها هماهنگه: «ما متعهد به ساختن یک زیرساخت اینترنتی سالم هستیم که در اون محتوا برای هدف مورد نظرش استفاده بشه تا تولیدکنندگان و ناشران بتونن رشد کنن.»

    ناشران بزرگی مثل تایم (TIME)، آتلانتیک (The Atlantic)، ادویک (ADWEEK)، بازفید (BuzzFeed)، فورچن (Fortune)، کورا (Quora) و استک اورفلو (Stack Overflow) هم به این طرح پیوستن.

    کسب‌وکارهای کوچک و وبلاگ‌نویس‌ها: یک شمشیر دو لبه؟

    اما برای کسب‌وکارهای کوچیک و متوسط (SMB) یا وبلاگ‌نویس‌های مستقل، قضیه کمی پیچیده‌تره. اینجا یک سوال مهم پیش میاد:

    آیا محتوای شما اونقدر ارزش داره که یک شرکت هوش مصنوعی حاضر بشه براش پول بده؟

    • برای یک خبرگزاری بزرگ، جواب احتمالا مثبته. مدل‌های هوش مصنوعی برای تولید جواب‌های دقیق به محتوای خبری نیاز دارن.
    • اما برای یک سایت کوچیک چطور؟ آیا هوش مصنوعی واقعا اونقدر به محتوای شما نیاز داره که براش هزینه کنه؟ یا میتونه اطلاعات مشابه یا حتی بهتر رو از منابع دیگه‌ای که رایگان هستن به دست بیاره؟

    این نگرانی وجود داره که این طرح، به جای کمک به کسب‌وکارهای کوچیک، بیشتر به ضررشون تموم بشه. اگه شرکت‌های هوش مصنوعی تصمیم بگیرن که برای محتوای اونها پولی پرداخت نکنن، این سایت‌ها نه تنها پولی دریافت نمیکنن، بلکه اون ذره‌ای از آگاهی از برند (brand awareness) که از طریق حضور در جواب‌های هوش مصنوعی به دست میاوردن رو هم از دست میدن و عملا نامریی میشن.

    منتقدان میگن اینکه به صاحب سایت حق انتخاب داده بشه کار درستیه، اما اینکه مسدودسازی به صورت پیش‌فرض باشه، شاید جواب درستی برای این مشکل نباشه. برای خیلی از سایت‌های کوچیک، حضور نداشتن در دنیای هوش مصنوعی میتونه به اندازه پول نگرفتن برای محتواشون خطرناک باشه.

    شرکت‌های هوش مصنوعی: راهی به سوی نوآوری مسئولانه

    از دید شرکت‌های هوش مصنوعی و تیم‌های تحقیقاتی، این بازار میتونه یک جایگزین شفاف و کم‌دردسر برای بحث‌های حقوقی پیچیده کپی‌رایت باشه. به جای اینکه به صورت بی‌رویه محتوا جمع‌آوری کنن و امیدوار باشن که کارشون تحت عنوان «استفاده منصفانه» (fair use) قانونی تلقی بشه، میتونن با یک هزینه قابل پیش‌بینی، به محتوای باکیفیت دسترسی قانونی پیدا کنن. این کار ریسک حقوقی رو کم میکنه و رابطه بهتری با جامعه تولیدکنندگان محتوا ایجاد میکنه.

    جامعه علمی: یک نگرانی مهم

    بعضی از افراد در جامعه دانشگاهی و تحقیقاتی نگرانن که مسدود کردن خزنده‌ها میتونه به تحقیقات هوش مصنوعی مشروع و غیرتجاری آسیب بزنه.

    این تغییرات چه تاثیری روی آینده جستجو و سئو داره؟

    خب، حالا که با کلیات ماجرا آشنا شدیم، بیا ببینیم این طرح جدید چه تاثیری روی دو مفهوم مهم یعنی سئو و جی‌ای‌او میذاره.

    تاثیر بر سئوی سنتی (SEO)

    اول از همه باید خیال همه رو راحت کنیم: کلاودفلر به صورت پیش‌فرض ربات‌های جستجوگر سنتی مثل گوگل‌بات (Googlebot) یا بینگ‌بات (BingBot) رو مسدود نمیکنه. تمرکز اصلی این طرح روی ربات‌های هوش مصنوعیه.

    با این حال، برای اولین بار، کلاودفلر به ناشران این امکان رو میده که اگه بخوان، حتی جلوی ربات‌های جستجوگر سنتی رو هم بگیرن یا ازشون پول بخوان. آیا ناشران این کار رو میکنن؟ احتمالا نه. مسدود کردن گوگل هنوز به معنی از دست دادن بخش بزرگی از ترافیک ارزشمنده و کمتر کسی حاضر به پرداخت چنین هزینه‌ایه.

    اما یک نکته جالب وجود داره: کلاودفلر داره تلاش میکنه (چه با مذاکره و چه از راه قانونی) گوگل رو متقاعد کنه که ربات خودش یعنی گوگل‌بات رو به دو بخش جدا تقسیم کنه:

    • یک ربات برای جستجوی سنتی.
    • یک ربات برای خزش محتوا جهت استفاده در بخش‌های هوش مصنوعی مثل AI Overviews.

    اگه این اتفاق بیفته، ناشران میتونن به ربات جستجوی سنتی اجازه دسترسی بدن، اما جلوی ربات هوش مصنوعی گوگل رو بگیرن. متخصصان سئو از چنین اتفاقی استقبال میکنن.

    تاثیر عمیق بر جی‌ای‌او (GEO)

    جی‌ای‌او (Generative Engine Optimization) یعنی بهینه‌سازی محتوا برای موتورهای تولیدکننده جواب مثل چت‌جی‌پی‌تی. تاثیر طرح «پرداخت به ازای خزش» روی جی‌ای‌او خیلی عمیق‌تر از سئوی سنتیه.

    برای اینکه این موضوع رو بفهمی، باید بدونی که مدل‌های هوش مصنوعی چطور کار میکنن. دو فرآیند اصلی وجود داره:

    • آموزش مدل (Training data): قبل از اینکه یک مدل بتونه به سوالی جواب بده، باید آموزش ببینه. در این مرحله، ربات‌ها حجم عظیمی از اطلاعات (متن، کد، عکس) رو از سراسر وب جمع‌آوری میکنن تا مدل بتونه زبان رو بفهمه و دانش پایه‌ای خودش رو در مورد دنیا شکل بده. این دانش، مثل فونداسیون یک ساختمونه.
    • بازیابی اطلاعات لحظه‌ای (Real-time information retrieval): بعد از اینکه مدل آموزش دید، میتونه برای جواب دادن به سوالات جدید، اطلاعات تازه رو از طریق ابزارهای خارجی (مثلا جستجو در بینگ) به دست بیاره. این مثل اینه که شما برای جواب دادن به یک سوال، سریع یک چیزی رو در اینترنت جستجو کنی.

    حالا ممکنه فکر کنی: «خب، اگه سایت من بینگ رو مسدود نکنه، پس چت‌جی‌پی‌تی هنوز میتونه محتوای من رو ببینه. پس مشکل چیه؟»

    اینجاست که نکته کلیدی مشخص میشه:
    آموزش، درک بنیادی مدل رو میسازه؛ جستجوی لحظه‌ای فقط اون درک رو تکمیل میکنه، نه اینکه جایگزینش بشه.

    وقتی سایت‌های بیشتری به طرح «پرداخت به ازای خزش» ملحق بشن و دسترسی ربات‌های هوش مصنوعی رو محدود کنن، سه اتفاق مهم میفته:

    • کاهش کیفیت جواب‌ها: حتی اگه هوش مصنوعی بتونه سایت تو رو از طریق بینگ ببینه، اگه در مرحله آموزش با محتوای مشابهی برخورد نکرده باشه، نمیدونه چطور اون رو تفسیر کنه یا بهش اولویت بده.
    • سوگیری به سمت منابع شناخته‌شده: مدل‌ها به منابعی که در زمان آموزش دیدن «اعتماد» بیشتری دارن. اگه محتوای تو بخشی از اون فرآیند آموزشی نبوده باشه، ممکنه در جواب‌های تولید شده نادیده گرفته بشی، فقط به این دلیل که مدل با سبک، فرمت یا اعتبار سایت تو آشنا نیست.
    • تاثیر بلندمدت بر جی‌ای‌او: هرچقدر سایت‌های بیشتری دسترسی ربات‌ها رو محدود کنن، داده‌های آموزشی کلی مدل‌ها کوچیک‌تر و محدودتر میشه. سایتی که در مرحله آموزش دیده نشده، وارد «نقشه ذهنی» مدل نمیشه، حتی اگه از نظر فنی در جستجوی لحظه‌ای قابل دسترسی باشه.

    خلاصه اینکه جی‌ای‌او فقط مربوط به دیده شدن نیست؛ مربوط به اینه که مدل هوش مصنوعی تو رو بشناسه، بهت اعتماد داشته باشه و درکت کنه. و همه اینها از مرحله آموزش شروع میشه.

    پرسش و پاسخ

    سوال: پس این طرح کلاودفلر یعنی دیگه نمیتونم از گوگل استفاده کنم؟

    جواب: نه اصلا. این طرح ربطی به استفاده شما از موتورهای جستجوی سنتی مثل گوگل یا بینگ نداره. ربات‌های این موتورهای جستجو به صورت پیش‌فرض مسدود نمیشن و شما مثل قبل میتونی ازشون استفاده کنی. این طرح بیشتر روی ربات‌هایی تمرکز داره که برای آموزش مدل‌های هوش مصنوعی مثل چت‌جی‌پی‌تی محتوا جمع میکنن.

    سوال: آیا این سیستم «پرداخت به ازای خزش» همین الان برای همه فعاله؟

    جواب: در حال حاضر، این برنامه در نسخه بتای خصوصی قرار داره. این یعنی هنوز برای همه در دسترس نیست و سایت‌ها باید برای شرکت در اون درخواست بدن (opt-in). اما برنامه کلاودفلر اینه که در آینده‌ای نامشخص، مسدودسازی ربات‌های هوش مصنوعی رو به صورت پیش‌فرض برای همه اجرا کنه.

    سوال: من یک وبلاگ کوچیک دارم. باید نگران باشم؟

    جواب: این موضوع بستگی به اهداف شما داره. از یک طرف، این طرح به شما قدرت کنترل روی محتواتون رو میده. از طرف دیگه، این ریسک وجود داره که شرکت‌های بزرگ هوش مصنوعی حاضر نشن برای محتوای شما پولی پرداخت کنن و در نتیجه، شما از دنیای جواب‌های هوش مصنوعی حذف بشی. این یک تصمیم استراتژیکه که هر صاحب سایتی باید برای خودش بگیره.

    سوال: این پرداخت‌ها چطوری انجام میشه؟ آیا پیچیده است؟

    جواب: طبق گفته کلاودفلر، خود این شرکت به عنوان واسطه عمل میکنه. یعنی پرداخت‌ها رو از شرکت‌های هوش مصنوعی جمع‌آوری و به حساب صاحبان سایت‌ها واریز میکنه. این کار باعث میشه نیازی به قراردادهای پیچیده یا استفاده از ارزهای دیجیتال نباشه و فرآیند ساده باشه.

    سوال: از کجا معلوم که یک ربات هویت خودش رو جعل نکنه و الکی بگه من ربات گوگل هستم؟

    جواب: کلاودفلر برای جلوگیری از این مشکل از سیستم‌های پیشرفته مدیریت ربات و امضاهای رمزنگاری شده به اسم Ed25519 استفاده میکنه. این فناوری‌ها کمک میکنن هویت ربات‌ها به طور دقیق تایید بشه تا جلوی جعل و تقلب گرفته بشه.

    “`

    منابع

    • [2] Cloudflare’s innovative “pay per crawl” lets publishers charge AI crawlers for content
    • [4] Just a moment…
    • [6] How Cloudflare’s Pay-Per-Crawl Marketplace Protects Publishers
    • [8] Cloudflare’s Pay Per Crawl: A turning point for SEO and GEO
    • [1] Publishers Push Back Against AI Data Scraping as Cloudflare Introduces ‘Pay per Crawl’ | Music AI
    • [3] Introducing pay per crawl: Enabling content owners to charge AI crawlers for access – Piccalilli
    • [5] The Future of Content and AI: Pay per Crawl and What’s Next – Cloudflare TV
    • [7] Legal News, Updates & Analysis | Advocate Daily
    • [9] Cloudflare’s Decision to Block AI Crawlers Could Affect Your Performance in LLMs | JumpFly Digital Marketing Blog
  • واژه‌نامه جامع اصطلاحات سئو و دیجیتال مارکتینگ

    دنیای بهینه‌سازی موتور جستجو، یا همون سئو (SEO)، مثل هر حوزه تخصصی دیگه‌ای، پر از اصطلاحات، کلمات مخفف و تعریف‌های خاص خودشه. اگه تازه وارد این دنیا شده باشی یا بخوای با متخصص‌های این حوزه صحبت کنی، ممکنه گاهی حس کنی دارن با یه زبون دیگه حرف میزنن. این مقاله دقیقا برای همینه که این زبان رو برات ساده و قابل فهم کنه. اینجا قراره با هم سفری به دنیای کلمات سئو داشته باشیم و با بیشتر از ۲۰۰ تا از رایج‌ترین اصطلاحاتی که تو این مسیر میشنوی و حتما باید بدونی، آشنا بشیم. پس بیا بدون مقدمه بیشتر، یک راست بریم سر اصل مطلب و ببینیم این اصطلاحات عجیب و غریب هر کدوم چه معنی‌ای دارن.

    الف

    Above the Fold (بالای خط تا)

    این اصطلاح به اون بخشی از محتوای یه سایت گفته میشه که کاربر قبل از اینکه صفحه رو به پایین اسکرول کنه، میبینه. در واقع اولین چیزیه که چشم کاربر بهش میفته. این مفهوم از روزنامه‌ها میاد، جایی که مهم‌ترین خبرها رو بالای تاخوردگی وسط روزنامه چاپ میکردن. تو دنیای وب هم همینطوره. محتوایی که بالای خط تا قرار میگیره، بلافاصله دیده میشه. گوگل در سال ۲۰۱۲ یه الگوریتم به اسم «الگوریتم چیدمان صفحه» یا Page Layout Algorithm ساخت تا رتبه سایت‌هایی رو که تو این قسمت تبلیغات خیلی زیادی میذاشتن، پایین بیاره. چون این کار تجربه کاربری خوبی ایجاد نمیکنه.

    Absolute Link (لینک مطلق)

    لینک مطلق به لینکی گفته میشه که از آدرس کامل و سرراست یه صفحه استفاده میکنه. مثلا http://site.com/folder/file.html. این نوع لینک‌ها ترجیح داده میشن چون لینک‌های نسبی (Relative Link)، که آدرس کاملی ندارن، میتونن مشکلاتی مثل کپی شدن محتوا (Canonicalization) یا هایجک شدن ایجاد کنن.

    Accelerated Mobile Pages (AMP) (صفحات موبایلی پرشتاب)

    AMP یه فریم‌ورک متن‌باز HTML هست که اجازه میده صفحاتی که اول برای دسکتاپ طراحی شدن، روی موبایل خیلی سریع‌تر بارگذاری بشن. یه زمانی، استفاده از AMP یکی از معیارهای اصلی برای دیده شدن تو بخش «داستان‌های برتر» یا Top Stories اخبار گوگل بود. اما الان دیگه اون لوگوی AMP از نتایج جستجو حذف شده و گوگل اعلام کرده که AMP دیگه برای بودن تو اون بخش الزامی نیست. الان تاکید بیشتر روی معیارهای Core Web Vitals هست تا سرعت بارگذاری صفحه اندازه‌گیری بشه و میشه گفت تاثیر AMP دیگه مثل قبل نیست.

    Access Log (گزارش دسترسی)

    این یه فایل گزارش هست که تمام درخواست‌هایی که از طرف آدم‌ها یا ربات‌ها برای فایل‌های مختلف یه سایت ارسال میشه رو لیست میکنه.

    Ad Keyword (کلمه کلیدی تبلیغاتی)

    به کلمه یا عبارتی گفته میشه که وقتی یه کاربر تو موتور جستجو وارد میکنه، باعث نمایش نتایج پولی یا همون تبلیغات میشه.

    Ad Rank (رتبه تبلیغ)

    این یه ارزشه که برای تعیین جایگاه تبلیغ شما (اینکه تبلیغتون نسبت به بقیه تبلیغات کجا نشون داده بشه) و اینکه اصلا تبلیغتون نمایش داده بشه یا نه، استفاده میشه. رتبه تبلیغ با استفاده از مبلغی که پیشنهاد میدی (Bid)، کیفیت تبلیغ (که شامل نرخ کلیک مورد انتظار، مرتبط بودن تبلیغ و تجربه صفحه فرود میشه)، شرایط جستجوی کاربر و تاثیر مورد انتظار از افزونه‌ها و فرمت‌های دیگه تبلیغ محاسبه میشه.

    AdSense (ادسنس)

    ادسنس یه پلتفرم تبلیغات نمایشی متنی از طرف گوگل هست. این یه فرایند خودکاره که به گوگل اجازه میده تبلیغات مرتبط رو تو یه وب‌سایت قرار بده. صاحبای سایت‌هایی که از ادسنس استفاده میکنن، بخشی از سود کلیک روی تبلیغات رو از گوگل میگیرن. این تبلیغات میتونن به شکل لینک‌های متنی، گرافیکی، انیمیشنی یا ویدیویی باشن.

    Adobe Analytics

    این یه نرم‌افزار تحلیلی از شرکت ادوبی هست که داده‌های مربوط به تحلیل وب و کانال‌های بازاریابی رو به صورت زنده جمع‌آوری میکنه. کارش شبیه گوگل آنالیتیکس هست و میشه ازش برای درک بهتر بخش‌های بازاریابی یه سایت و تعامل کاربرا استفاده کرد.

    AdWords

    این اسم قدیمی پلتفرم تبلیغاتی گوگل هست که الان بهش Google Ads میگن. یه شبکه تبلیغاتی پولی و سلف‌سرویسه که جایگاه تبلیغات رو از طریق یه چیزی به اسم «امتیاز کیفیت» یا Quality Score تعیین میکنه. این امتیاز، تبلیغ‌کننده‌ها رو بر اساس نرخ کلیک، نرخ پرش و عوامل دیگه ارزیابی میکنه. ادوردز بزرگترین شبکه تبلیغات آنلاین تو دنیاست.

    Affiliate (بازاریابی وابسته)

    سایت وابسته یا Affiliate، محصولات یا خدماتی رو تبلیغ میکنه که در واقع توسط یه سایت یا کسب‌وکار دیگه فروخته میشن و در ازای این کار، کارمزد یا کمیسیون میگیره. این برنامه‌ها به بازاریاب‌های مستقل اجازه میدن بر اساس مدل پرداختی به ازای هر اقدام (CPA) پول دربیارن.

    AJAX

    این کلمه مخفف Asynchronous JavaScript and XML هست. یه نوع برنامه‌نویسیه که به یه صفحه وب اجازه میده بدون نیاز به بارگذاری مجدد کل صفحه، اطلاعات رو از سرور بفرسته و بگیره تا صفحه به صورت پویا تغییر کنه. توسعه‌دهنده‌ها از این تکنیک برای ساختن وب‌سایت‌های تعاملی با ترکیب XML، HTML، CSS و جاوا اسکریپت استفاده میکنن.

    Algorithm (الگوریتم)

    الگوریتم یه برنامه کامپیوتری پیچیده یا مجموعه‌ای از محاسبات ریاضی و دستورات شرطی هست که موتورهای جستجو ازش برای بازیابی داده‌ها و ارائه نتایج برای یه جستجو (Query) استفاده میکنن. موتورهای جستجو ترکیبی از الگوریتم‌ها رو به کار میگیرن تا بر اساس یه سری فاکتورها و سیگنال‌های رتبه‌بندی، صفحات وب رو رتبه‌بندی کنن و تو صفحه نتایج نشون بدن. کار این الگوریتم‌ها اینه که تصمیم بگیرن یه برنامه کامپیوتری چه کاری باید انجام بده.

    Algorithm Change (تغییر الگوریتم)

    بعضی از تغییرات الگوریتمی کاملا نامحسوس اتفاق میفتن. اما تاثیر یه تغییر بزرگ معمولا خیلی سریع دیده میشه، هرچند گاهی چند هفته طول میکشه تا به طور کامل اعمال بشه. تغییرات الگوریتمی سه شکل دارن:

    • به‌روزرسانی الگوریتم (Algorithm Update): موتور جستجو سیگنال‌های خاصی از یه الگوریتم موجود رو تغییر میده.
    • بازآوری الگوریتم (Algorithm Refresh): موتور جستجو یه الگوریتم موجود رو با همون سیگنال‌های قبلی دوباره اجرا میکنه.
    • الگوریتم جدید (New Algorithm): موتور جستجو یه الگوریتم جدید برای بهبود کیفیت جستجو اضافه میکنه. مثل الگوریتم‌های پاندا و پنگوئن گوگل.

    Alt Attribute / Alt Text (ویژگی آلت / متن جایگزین)

    این یه کد HTML هست که به تگ‌های عکس اضافه میشه تا یه جایگزین متنی برای موتورهای جستجو فراهم کنه. موتورهای جستجو نمیتونن عکس‌ها رو «ببینن»، برای همین این متن بهشون کمک میکنه محتوای عکس رو بفهمن. این متن برای نرم‌افزارهای صفحه‌خوان (Screen Reader) که افراد نابینا و کم‌بینا ازشون استفاده میکنن هم اطلاعات فراهم میکنه. به طور معمول، این متن برای کاربر نهایی نمایش داده نمیشه، مگه اینکه عکس بارگذاری نشه.

    Analytics (تحلیل و آنالیز)

    تحلیل یا آنالیتیکس، علم جمع‌آوری، بررسی و تفسیر داده‌هاست تا بشه بر اساس چیزهایی که در گذشته جواب داده (یا نداده)، برای آینده تصمیم‌گیری کرد. تو سئو، آنالیتیکس یعنی جمع‌آوری و تحلیل داده‌های بازاریابی با هدف اصلی افزایش ترافیک ارگانیک سایت. سیستم‌هایی مثل گوگل آنالیتیکس برای محاسبه و تحلیل آمارهایی مثل ترافیک سایت، تعداد کاربرا، درآمد، منابع ترافیک، اهداف سایت و الگوی رفتاری کاربرا برای مقایسه پیشرفت یه کمپین سئو استفاده میشن.

    Anchor Text (انکر تکست یا متن لنگر)

    انکر تکست به کلمه یا کلمات قابل کلیک توی یه لینک گفته میشه. این متن به آدما و موتورهای جستجو اطلاعاتی درباره محتوای صفحه‌ای که بهش لینک داده شده، میده. برای مثال، اگه بخوای یه لینک به سایت سرچ انجین ژورنال بدی، عبارت «سرچ انجین ژورنال» انکر تکست اون لینک میشه. این متن معمولا رنگ متفاوتی داره تا مشخص باشه که یه هایپرلینکه. برای سئو، انکر تکست برای لینک دادن یه کلمه کلیدی مرتبط به صفحه مربوط به خودش استفاده میشه.

    Artificial Intelligence (AI) (هوش مصنوعی)

    هوش مصنوعی علم واداشتن کامپیوترها به انجام کارهاییه که به هوش انسانی نیاز دارن. برخلاف یه الگوریتم که از یه سری قوانین برنامه‌ریزی شده پیروی میکنه، یه سیستم هوش مصنوعی اساسا یه مغز دیجیتاله که یاد میگیره. هوش مصنوعی میتونه بدون دخالت انسان تصمیم بگیره و اونها رو اجرا کنه.

    Authority (اعتبار)

    اعتبار، ترکیبی از سیگنال‌هاییه که موتورهای جستجو برای ارزیابی سایت‌ها و صفحات وب برای رتبه‌بندی استفاده میکنن. این یه معیار کیفیه که به دیده شدن و رتبه کلی یه سایت کمک میکنه. اعتبار میتونه به «اعتبار سایت» (Site Authority) اشاره داشته باشه که کیفیت، مفید بودن و مرتبط بودن کلی یه سایت رو نشون میده. سایت‌هایی که اعتبار بالایی دارن، تو موتورهای جستجو رتبه بهتری میگیرن.

    Author Authority (اعتبار نویسنده)

    این یه مفهومه که از شهرت و اعتبار شخصی که محتوای آنلاین مینویسه به عنوان یه فاکتور رتبه‌بندی استفاده میکنه. گوگل یه زمانی این ایده رو با گوگل پلاس آزمایش کرد، اما با وجود ثبت چند پتنت، هیچ مدرکی وجود نداره که اعتبار نویسنده یه فاکتور رتبه‌بندی مستقیم باشه. با این حال، گوگل روی مفهوم E-A-T (تخصص، اعتبار، قابل اعتماد بودن) تاکید میکنه تا اطلاعات غلط آنلاین رو، به خصوص تو حوزه‌هایی مثل سلامت و مالی که بهشون YMYL (پول شما یا زندگی شما) میگن، کاهش بده. تو این حوزه‌ها، ساختن اعتبار برای نویسنده به یه برند کمک میکنه تا معتبر به نظر برسه، حتی اگه الان روی رتبه‌بندی تاثیر مستقیم نداشته باشه.

    Authority Score (امتیاز اعتبار)

    این یه معیار ترکیبی و اختصاصی تو ابزار سمراش (Semrush) هست که برای سنجش کیفیت کلی و تاثیر یه دامنه روی سئو استفاده میشه. محاسبش بر اساس سه جنبه اصلیه:

    • قدرت لینک (Link Power): کیفیت و کمیت بک‌لینک‌ها.
    • ترافیک ارگانیک (Organic Traffic): میانگین ماهانه تخمینی ترافیک.
    • عوامل اسپم (Spam Factors): نشانه‌هایی از دستکاری یا اسپم بودن تو پروفایل لینک‌ها.

    ب

    B2B (کسب‌وکار به کسب‌وکار)

    مخفف Business-to-Business هست. تو سئوی B2B، چرخه خرید طولانی‌تره، محصولات و خدمات گرون‌ترن و مخاطب‌ها، تصمیم‌گیرنده‌های حرفه‌ای تو شرکت‌ها هستن. بازاریابی B2B هر رویکرد یا محتواییه که یه شرکت یا سازمان رو هدف قرار میده.

    B2C (کسب‌وکار به مصرف‌کننده)

    مخفف Business-to-Consumer هست. تو سئوی B2C، چرخه خرید معمولا کوتاه‌تره، محصولات و خدمات (در بیشتر موارد) ارزون‌ترن و مخاطب‌ها مصرف‌کننده‌های نهایی هستن.

    Backlink (بک‌لینک یا لینک ورودی)

    وقتی یه سایت به سایت دیگه‌ای لینک میده، یه بک‌لینک ساخته میشه. به بک‌لینک، «لینک ورودی» (Inbound Link) یا «لینک وارد شونده» (Incoming Link) هم میگن. بک‌لینک‌ها هم برای کاربرا، هم برای موتورهای جستجو و هم برای تبلیغ‌کننده‌ها خیلی مهمن، چون به کاربرا و موتورهای جستجو اجازه میدن محتوای جدید رو تو وب پیدا کنن. گوگل بک‌لینک‌ها رو به عنوان یه نشونه از باکیفیت بودن محتوای شما در نظر میگیره و برای همین، یکی از مهم‌ترین بخش‌های سئو محسوب میشن.

    Backlink Analysis (تحلیل بک‌لینک)

    این یه روشه که به شما کمک میکنه بفهمید چه نوع سایت‌هایی به سایت شما یا رقبای شما لینک دادن. همچنین به شناسایی لینک‌های بدی که شاید بخواید از طریق ابزار Disavow اونها رو بی‌اثر کنید، کمک میکنه.

    Baidu (بایدو)

    بایدو محبوب‌ترین موتور جستجو تو چینه. این شرکت تو ژانویه سال ۲۰۰۰ توسط رابین لی و اریک شو تاسیس شد. امکانات و خدماتش شبیه گوگل هست، اما تمرکز اصلیش روی چینه و بیشتر بازار جستجوی اون کشور رو در اختیار داره.

    Banner (بنر)

    بنر اسم دیگه‌ای برای تبلیغات تصویریه، به خصوص برای سایز ۴۶۸ در ۶۰ پیکسل. بنرها میتونن ثابت، تعاملی یا متحرک باشن و تقریبا هر جایی از یه صفحه وب ظاهر بشن. فضای بنر معمولا بر اساس مدل CPM (هزینه به ازای هر هزار نمایش) یا با یه قیمت ثابت برای یه دوره زمانی مشخص خریداری میشه.

    Banner Blindness (کوری بنر)

    این یه ایده است که میگه کاربرا اونقدر با تبلیغات بمباران شدن که دیگه به تبلیغات تو جایگاه‌های سنتی (مثل بنرهای بالای صفحه یا کنار صفحه) توجهی نمیکنن. این یکی از دلایل اصلی موفقیت بیشتر تبلیغات متنی و انواع دیگه تبلیغات محتواییه.

    Beta (بتا)

    این اصطلاح زمانی استفاده میشه که یه نرم‌افزار تو مرحله نهایی تست، قبل از عرضه کامل به مشتری‌ها، قرار داره.

    Bing (بینگ)

    بینگ اسم موتور جستجوی مایکروسافته. این موتور جستجو تو ژوئن ۲۰۰۹ راه‌اندازی شد و جایگزین سرویس‌های قبلی مایکروسافت مثل لایو سرچ، ویندوز لایو سرچ و ام‌اس‌ان سرچ شد. از سال ۲۰۱۰، بینگ نتایج جستجوی ارگانیک یاهو رو هم به عنوان بخشی از یه قرارداد بین مایکروسافت و یاهو، تامین میکنه.

    Black Box (جعبه سیاه)

    این اصطلاح برای توصیف یه برنامه کامپیوتری پیچیده استفاده میشه که درک عملکرد داخلیش سخته. ورودی‌ها و خروجی‌هاش رو میشه دید، اما به خاطر ماهیت محرمانه‌اش، به خود فرایند دسترسی وجود نداره. برای مثال، الگوریتم گوگل یه جعبه سیاهه.

    Black Hat (کلاه سیاه)

    کلاه سیاه به مجموعه‌ای از تاکتیک‌های پرریسک و غیراخلاقی گفته میشه که برخلاف دستورالعمل‌های وبمستر گوگل (Google’s Webmaster Guidelines) هستن. این روش‌ها سعی میکنن الگوریتم‌های موتور جستجو رو دستکاری کنن تا رتبه یه سایت رو تو نتایج جستجو بالا ببرن. نمونه‌هایی از سئوی کلاه سیاه میتونه پنهان کردن متن تو سایت، پر کردن صفحه با کلمات کلیدی (Keyword Stuffing)، لینک‌سازی اسپم، تولید محتوای خودکار و کلاکینگ (Cloaking) باشه. سئوی کلاه سیاه میتونه باعث جریمه شدن یه سایت توسط موتورهای جستجو بشه.

    Blog (وبلاگ)

    وبلاگ یه نوع سایت آموزشی یا دفترچه خاطرات آنلاینه که محتوا رو به ترتیب زمانی معکوس نمایش میده، یعنی جدیدترین پست‌ها بالای صفحه قرار میگیرن. وبلاگ که کوتاه شده کلمه «وب‌لاگ» هست، یه پلتفرمه که یه نویسنده یا گروهی از نویسنده‌ها میتونن نظراتشون رو درباره یه موضوع خاص به اشتراک بذارن.

    Bot (ربات)

    ربات که بهش «خزنده» (Crawler) یا «عنکبوت» (Spider) هم میگن، یه برنامه‌ است که یه کار رو کم و بیش به صورت خودکار انجام میده. موتورهای جستجو از ربات‌ها برای پیدا کردن و اضافه کردن صفحات وب به فهرست (ایندکس) جستجوی خودشون استفاده میکنن. اسپمرها هم معمولا از ربات‌ها برای «خراشیدن» (Scrape) محتوای دیگران و کپی کردنش استفاده میکنن.

    Bounce Rate (نرخ پرش)

    نرخ پرش درصدی از بازدیدکننده‌های سایته که بدون اینکه صفحه دیگه‌ای از اون سایت رو ببینن، ازش خارج میشن. نرخ پرش بسته به صنعت و حوزه کاری میتونه خیلی متفاوت باشه. هرچند این معیار میتونه نشون‌دهنده مشکلات احتمالی تو محتوا یا ساختار سایت باشه، اما طبق گفته گوگل، یه فاکتور رتبه‌بندی مستقیم نیست.

    Branded Keyword (کلمه کلیدی برند)

    این اصطلاح زمانی به کار میره که جستجوی یه کاربر شامل اسم دقیق یه شرکت یا برند خاص یا یه شکل تغییر یافته از اون باشه. برای مثال، «سرچ انجین ژورنال»، «SEJ» و «راهنمای سئوی سرچ انجین ژورنال» چند نمونه از کلمات کلیدی برند هستن. این کلمات معمولا ارزش و نرخ تبدیل بالایی دارن.

    Breadcrumb (مسیر راهنما)

    بردکرامب یه عنصر ناوبری تو سایته که به کاربرا کمک میکنه به راحتی بفهمن کجای سایت هستن. این مسیر راهنما معمولا به صورت یه خط افقی بالای محتوای اصلی نمایش داده میشه و نشون میده کاربر چطور میتونه به بخش‌های اصلی سایت برگرده. فرمتش معمولا به این شکله: «خانه > دسته‌بندی > محتوا».

    Broken Link (لینک شکسته)

    لینک شکسته لینکیه که به یه صفحه با خطای ۴۰۴ (پیدا نشد) منتهی میشه. یه لینک معمولا به دلایل زیر شکسته میشه:

    • یه سایت آفلاین میشه.
    • یه صفحه وب بدون اینکه ریدایرکت بشه، حذف میشه.
    • آدرس مقصد بدون اینکه ریدایرکت بشه، تغییر میکنه.

    هرچند یه لینک شکسته گهگاه تاثیری روی سئو نداره، اما تعداد زیادشون میتونه یه سیگنال منفی برای الگوریتم‌های موتور جستجو باشه. به لینک شکسته، «لینک مرده» (Dead Link) هم میگن.

    پ

    PageRank (پیج‌رنک)

    پیج‌رنک یه بخش از الگوریتم اصلی گوگل هست که توسط لری پیج، یکی از بنیان‌گذاران گوگل، ساخته شده. طبق گفته گوگل، «پیج‌رنک معیاری برای سنجش اهمیت یه صفحه بر اساس لینک‌های ورودی از صفحات دیگه است». به زبان ساده، هر لینکی که از یه سایت دیگه به صفحه‌ای از سایت شما داده میشه، به پیج‌رنک سایت شما اضافه میکنه. البته همه لینک‌ها ارزش یکسانی ندارن. این الگوریتم اهمیت یه صفحه وب رو با اندازه‌گیری کیفیت و کمیت لینک‌هایی که بهش اشاره میکنن، تخمین میزنه. امتیازی که گوگل به سایت‌ها میده بین ۰ تا ۱۰ هست که ۱۰ بالاترین اعتبار رو داره.

    Page Speed (سرعت صفحه)

    این اصطلاح به مدت زمانی اشاره داره که طول میکشه تا یه صفحه وب به طور کامل بارگذاری بشه. سرعت صفحه یه فاکتور رتبه‌بندی محسوب میشه. عوامل موثر بر اون شامل اندازه فایل‌ها، کد منبع و وب سرور هستن.

    Pageview (بازدید صفحه)

    به رویدادی گفته میشه که یه کاربر یه صفحه وب رو یک بار توی مرورگرش بارگذاری و مشاهده میکنه.

    Paid Search (جستجوی پولی)

    اینها همون تبلیغات کلیکی (Pay-per-click) هستن که معمولا بالا و پایین نتایج ارگانیک تو موتورهای جستجو نمایش داده میشن.

    Pagination (صفحه‌بندی)

    به تقسیم محتوای یه صفحه وب به صفحات شماره‌دار گفته میشه. این کار معمولا با یه نویگیشن شماره‌دار در پایین صفحه و پارامترهایی در URL انجام میشه. مثلا صفحه‌های دسته‌بندی تو سایت‌های فروشگاهی.

    Panda (الگوریتم پاندا)

    پاندا یکی از الگوریتم‌های اصلی گوگل هست که اولین بار تو فوریه ۲۰۱۱ عرضه شد و بعد از اون به‌روزرسانی‌های متعددی داشت. هدف گوگل پاندا کاهش دیده شدن محتوای بی‌ارزش بود، به خصوص محتوایی که توسط «مزرعه‌های محتوا» (Content Farms) تولید میشد. پاندا سایت‌هایی با محتوای ضعیف و کیفیت پایین رو هدف قرار میداد. تو سال ۲۰۱۶، پاندا بخشی از الگوریتم رتبه‌بندی اصلی گوگل شد.

    PBN (شبکه وبلاگ خصوصی)

    این کلمه مخفف Private Blog Network هست که بهش Link Farm هم میگن.

    PDF

    مخفف Portable Document Format file هست. فایل‌های PDF میتونن شامل متن، عکس، لینک، ویدیو و عناصر دیگه باشن.

    Penalty (جریمه)

    جریمه که گوگل بهش Manual Action میگه، تاثیر منفی بر رتبه یه سایت بر اساس الگوریتم موتور جستجو هست. جریمه میتونه زمانی اتفاق بیفته که از تاکتیک‌های کلاه سیاه سئو استفاده بشه. این جریمه میتونه منجر به افت رتبه یا حذف کامل از نتایج جستجو بشه.

    Penguin (الگوریتم پنگوئن)

    پنگوئن یکی دیگه از الگوریتم‌های اصلی گوگل بود که تو آوریل ۲۰۱۲ راه‌اندازی شد. هدف پنگوئن کاهش دیده شدن سایت‌هایی بود که بیش از حد بهینه‌سازی شده بودن یا از تاکتیک‌های اسپم (مثل ساختن لینک‌های بی‌کیفیت یا پر کردن صفحه با کلمات کلیدی) زیاد استفاده میکردن. این الگوریتم سایت‌هایی رو که تو طرح‌های لینک‌سازی دستکاری شده برای افزایش رتبه شرکت میکردن، جریمه میکرد. تو سال ۲۰۱۶، پنگوئن به صورت زنده و به عنوان بخشی از الگوریتم اصلی گوگل شروع به کار کرد.

    Persona (پرسونا)

    پرسونا یه نمایش ساختگی از یه بازدیدکننده یا مشتری ایده‌آل سایته. این نمایش شامل اطلاعات دموگرافیک، رفتار، نیازها، انگیزه‌ها و اهداف اونهاست که همگی بر اساس داده‌های واقعی ساخته میشن. بهش پرسونا خریدار یا پرسونا بازاریابی هم میگن.

    Personalization (شخصی‌سازی)

    این اتفاق زمانی میفته که موتورهای جستجو از تاریخچه جستجو، تاریخچه وب‌گردی، موقعیت مکانی و روابط یه کاربر استفاده میکنن تا مجموعه‌ای از نتایج جستجو رو که مخصوص اون کاربر طراحی شده، ایجاد کنن.

    PHP

    این کلمه مخفف Hypertext Preprocessor هست و یه زبان اسکریپت‌نویسیه که برای ایجاد محتوای پویا تو صفحات وب استفاده میشه.

    Pigeon (آپدیت کبوتر)

    این اسمیه که صنعت سئو (نه خود گوگل) به یه به‌روزرسانی مهم جستجوی محلی گوگل داد که تو ۲۴ جولای ۲۰۱۴ راه‌اندازی شد. هدف کبوتر بهبود دقت و مرتبط بودن جستجوهای محلی با استفاده از سیگنال‌های رتبه‌بندی سنتی گوگل و بهبود پارامترهای فاصله و مکان بود.

    Piracy (سرقت محتوا)

    موتورهای جستجو سعی میکنن رتبه ارگانیک محتوایی رو که حق کپی‌رایت رو نقض میکنه، کاهش بدن. گوگل تو سال ۲۰۱۲ یه فیلتر معرفی کرد که دیده شدن سایت‌هایی رو که درخواست‌های حذف DMCA زیادی براشون ثبت شده بود، کم میکرد.

    Pogo-sticking

    این اصطلاح به زمانی اشاره داره که یه کاربر بعد از وارد کردن یه جستجو، بین صفحه نتایج (SERP) و صفحاتی که تو اون نتایج لیست شدن، هی عقب و جلو میره. این اتفاق زمانی میفته که کاربر روی یه لینک تو صفحه نتایج کلیک میکنه، میبینه اون چیزی که میخواسته نیست و فورا دکمه بازگشت رو میزنه. این رفتار میتونه نشون‌دهنده کیفیت پایین محتوا باشه.

    Position (موقعیت یا رتبه)

    به جایگاهی گفته میشه که یه صفحه وب تو نتایج جستجوی ارگانیک برای یه جستجوی خاص به دست میاره.

    PPC (پرداخت به ازای هر کلیک)

    PPC که مخفف Pay Per Click هست، یه نوع تبلیغاته که تو اون، تبلیغ‌کننده‌ها هر بار که یه کاربر روی تبلیغشون کلیک میکنه، مبلغ مشخصی (که معمولا بر اساس پیشنهاد، مرتبط بودن، تاریخچه حساب و رقابت تعیین میشه) پرداخت میکنن. ترکیب PPC و سئو میتونه به گرفتن فضای بیشتر تو صفحه نتایج، کلیک‌های بیشتر و تبدیل‌های بیشتر منجر بشه. داده‌های PPC میتونه به استراتژی سئوی شما کمک کنه و برعکس.

    ت

    Taxonomy (طبقه‌بندی)

    این اصطلاح به سازماندهی و دسته‌بندی یه وب‌سایت برای به حداکثر رسوندن قابلیت پیدا شدن محتوا و کمک به کاربرا برای انجام کارهای مورد نظرشون تو سایت اشاره داره. تو سئو، طبقه‌بندی به مجموعه‌ای از URLها گفته میشه که ویژگی مشترکی دارن و با هم مرتبطن.

    Technical SEO (سئو فنی)

    سئو فنی به بهینه‌سازی جنبه‌های فنی یه سایت برای موتورهای جستجو به منظور کسب رتبه‌های بالاتر تو نتایج جستجو اشاره داره.

    TF-IDF (فراوانی عبارت – معکوس فراوانی سند)

    این یه روش برای اندازه‌گیری اهمیت یه عبارت خاص برای درک موضوع کلی یه سنده. اساسا، به شما میگه که یه عبارت هدف، بر اساس تعداد تکرارش تو یه مجموعه متن، چقدر مهمه.

    Thin Content (محتوای ضعیف)

    محتوای ضعیف به هر نوع محتوایی (پست وبلاگ، مقاله، گرافیک، ویدیو) گفته میشه که توضیح ضعیفی از یه ایده ارائه میده و سعی نمیکنه هیچ چیز مفیدی به کاربر بده. این نوع محتوا معمولا عمق کافی نداره و میتونه تاثیر منفی روی سئو داشته باشه. تعداد کم کلمات میتونه یکی از نشانه‌های محتوای بی‌کیفیت برای موتورهای جستجو باشه.

    Time on Page (زمان ماندن در صفحه)

    این یه تخمین غیر دقیق از مدت زمانیه که یه کاربر صرف دیدن یه صفحه خاص کرده. صفحاتی که نرخ خروج بالایی دارن، میتونن این داده رو به شدت تحت تاثیر قرار بدن. این معیار میتونه نشون‌دهنده کیفیت و مرتبط بودن محتوای صفحه باشه.

    Title Tag (تگ عنوان)

    تگ عنوان یه تگ متای HTML هست که به عنوان عنوان یه صفحه وب عمل میکنه. معمولا، تگ عنوان همون عنوانیه که موتورهای جستجو موقع نمایش لیست نتایج استفاده میکنن، برای همین باید شامل کلمات کلیدی استراتژیک و مرتبط برای اون صفحه خاص باشه. تگ عنوان باید طوری نوشته بشه که برای آدما هم منطقی باشه و بیشترین کلیک رو جذب کنه. معمولا، طول تگ عنوان باید کمتر از ۶۵ کاراکتر باشه. این تگ یکی از مهم‌ترین فاکتورها برای رتبه‌بندی یه صفحه وب برای یه کلمه کلیدی خاصه.

    TLD (دامنه سطح بالا)

    مخفف Top-Level Domain هست و به پسوند یه آدرس وب اشاره داره. مثل:

    • .com
    • .org
    • .net
    • .info

    گزینه‌های خیلی بیشتری هم برای صنایع و کشورهای خاص وجود داره.

    Topic Efficiency (کارایی موضوع)

    این یه معیار کیفی تو ابزار Topic Research سمراش هست که نسبت بین حجم جستجوی یه موضوع و سختی اون رو نشون میده. امتیاز بالاتر کارایی موضوع معمولا نتیجه حجم جستجوی بالاتر و سختی کمتره و میتونه نشون‌دهنده یه موضوع خوب برای هدف قرار دادن با بازاریابی محتوا باشه.

    Total Addressable Market (TAM) (کل بازار قابل آدرس‌دهی)

    به کل تقاضا از طرف همه افراد تو بازار هدف شما اشاره داره. این عدد شامل تقاضای کسانی هم میشه که به یه محصول یا خدمت ارائه شده نیاز دارن، حتی اگه مایل، آماده یا قادر به خرید نباشن.

    Total Blocking Time (TBT) (کل زمان مسدود شده)

    این معیار کل مدت زمان بین First Contentful Paint (FCP) و Time to Interactive (TTI) رو اندازه‌گیری میکنه که تو اون، رشته اصلی به قدری مسدود بوده که از پاسخگویی به ورودی جلوگیری کرده. این معیار به عنوان جایگزینی برای FID تو سناریوهای تست آزمایشگاهی برای Core Web Vitals هم توصیه میشه.

    Tracking Code (کد رهگیری)

    یه قطعه جاوا اسکریپت که داده‌های ترافیک دقیق یه وب‌سایت رو به گوگل آنالیتیکس منتقل میکنه.

    Traffic (ترافیک)

    ترافیک به آدم‌ها (و گاهی ربات‌ها)یی گفته میشه که از سایت شما بازدید میکنن.

    Traffic Cost (هزینه ترافیک)

    این معیار که تو Domain Analytics سمراش پیدا میشه، نشون میده که یه تبلیغ‌کننده به طور متوسط ماهانه چقدر باید تو گوگل ادز هزینه کنه تا کل ترافیکی رو که منبع از جستجوی ارگانیک برای همه کلمات کلیدی و موقعیت‌های لیست شده تو گزارش دریافت کرده، به دست بیاره. این عدد به شما یه تخمین پایه از ارزش سبد کلمات کلیدی یه دامنه میده.

    Trust (اعتماد)

    این مفهوم به طور کلی به تاریخچه یه دامنه مربوط میشه (مثلا اینکه به منابع متخصص ارجاع میده یا ازشون استفاده میکنه، شهرت مثبتی میسازه و به دستورالعمل‌های وبمستر پایبنده). فاکتور اعتماد گوگل، ترکیبی از چندین متغیره که برای اختصاص دادن یه ارزش به میزان قابل اعتماد بودن یه سایت استفاده میشه.

    TrustRank

    این یه تکنیک تحلیل لینکه که برای جدا کردن «صفحات بذر معتبر» خوب از اسپم وب استفاده میشه. این الگوریتم کیفیت محتوای وب رو ارزیابی میکنه و بک‌لینک‌ها، محتوای سایت و لینک‌های خارجی رو بررسی میکنه.

    Tweet Listings (لیست‌های توییتر)

    به لینک‌هایی از توییتر گفته میشه که تو صفحه نتایج جستجو (SERP) لیست میشن.

    Twitter Cards (کارت‌های توییتر)

    اینها قطعه‌هایی از محتوا هستن که برای دادن یه تجربه رسانه‌ای غنی به کاربرا طراحی شدن. این کارت‌ها معمولا شامل لینک‌هایی به محتوای یه سایت هستن و میتونن پیش‌نمایش نشون بدن و ویدیو پخش کنن تا ترافیک رو به یه سایت هدایت کنن.

    ج

    JavaScript (JS) (جاوا اسکریپت)

    جاوا اسکریپت یه زبان برنامه‌نویسیه که امکان درج محتوا، لینک، متادیتا یا عناصر دیگه رو به صورت پویا تو وب‌سایت‌ها فراهم میکنه. این زبان یکی از پرکاربردترین زبان‌های کدنویسی تو اینترنت، در کنار CSS و HTML، هست. جاوا اسکریپت میتونه به طور بالقوه خزیدن و ایندکس کردن صفحات وب رو برای ربات‌های موتور جستجو سخت کنه و زمان بارگذاری صفحه رو برای کاربرا افزایش بده.

    چ

    Chatbot (چت‌بات)

    چت‌بات یه نرم‌افزار مبتنی بر هوش مصنوعیه که میتونه مکالمات انسانی رو شبیه‌سازی کنه و به کسب‌وکارها اجازه میده به طور یکپارچه با کاربرا تعامل داشته باشن. چت‌بات‌ها که معمولا تو وب‌سایت‌ها ادغام میشن، میتونن به سوالات مشتری‌ها پاسخ فوری بدن، به ناوبری کمک کنن و تو تولید سرنخ (Lead) موثر باشن. از این طریق، میتونن با افزایش تعامل کاربر و کاهش نرخ پرش، به طور بالقوه سئو رو بهبود ببخشن.

    خ

    Crawler (خزنده)

    خزنده یه برنامه است که موتورهای جستجو برای خزیدن در وب ازش استفاده میکنن. بهش Bot، Spider یا Web Crawler هم میگن. این برنامه‌ها صفحات وب رو بازدید میکنن تا اطلاعات جمع‌آوری کنن و فهرست (ایندکس) موتور جستجو رو اضافه یا به‌روز کنن.

    Crawling (خزیدن)

    خزیدن فرایند جمع‌آوری اطلاعات از میلیاردها صفحه وب عمومی با استفاده از یه خزنده است تا صفحات وب تو فهرست موتور جستجو به‌روز، اضافه و سازماندهی بشن.

    Cross Group Negatives (کلمات کلیدی منفی بین گروهی)

    این یه روش برای بهینه‌سازی کمپین گوگل ادز هست که کلمات کلیدی یه گروه تبلیغاتی رو به عنوان کلمات کلیدی منفی گروه تبلیغاتی دیگه پیاده‌سازی میکنه. این کار جلوی رقابت تبلیغات شما تو گروه‌های مختلف با همدیگه رو میگیره و از آسیب رسیدن به نرخ کلیک و امتیاز کیفیت جلوگیری میکنه.

    CSS (شیوه‌نامه آبشاری)

    CSS مخفف Cascading Style Sheets هست و یه زبان شیوه‌نامه است که توصیف میکنه عناصر HTML (مثل رنگ، فونت) چطور باید تو صفحات وب نمایش داده بشن و موقع دیدن تو دستگاه‌های مختلف چطور سازگار بشن.

    د

    Data (داده)

    داده به همه اعداد و ارقامی گفته میشه که نماینده مشتری‌های واقعی هستن – چه کسی، چه چیزی، کجا، کی، چرا و چطور – و همه اینها برای گرفتن تصمیم‌های آگاهانه درباره استراتژی‌ها و تاکتیک‌های سئو لازمه.

    Dead-End Page (صفحه بن‌بست)

    به صفحه وبی گفته میشه که به هیچ صفحه وب دیگه‌ای لینک نمیده. به این اسم نامیده میشه چون وقتی یه کاربر یا ربات به این صفحه میرسه، هیچ جایی برای رفتن به جلو وجود نداره.

    Deep Link (لینک عمیق)

    این اصطلاح به دو مورد اشاره داره:

    • لینکی که به هر صفحه وبی غیر از صفحه اصلی اشاره میکنه.
    • لینکی که به محتوای داخل یه اپلیکیشن موبایل اشاره میکنه.

    Deep Link Ratio (نسبت لینک عمیق)

    وقتی یه لینک داخلی مستقیما به صفحه‌ای غیر از صفحه اصلی یه سایت اشاره میکنه، بهش لینک عمیق میگن. نسبت لینک‌های عمیق به لینک‌های صفحه اصلی شما به عنوان نسبت لینک عمیق شناخته میشه. تصور میشه که داشتن لینک مستقیم به صفحات عمیق تو یه سایت، نشون‌دهنده کیفیت محتوای اون سایته. هرچی لینک عمیق بیشتری داشته باشی، سایت بهتره. البته هیچ مدرکی برای حمایت از تاثیر مستقیم نسبت لینک عمیق بر رتبه‌بندی وجود نداره.

    De-index (حذف از ایندکس)

    زمانی که گوگل یه وب‌سایت یا صفحه وب رو، به صورت موقت یا دائم، از نتایج جستجو و به طور خاص از فهرست جستجوی خودش حذف میکنه. گوگل یه ابزار به اسم Remove URLs تو سرچ کنسول برای موارد داوطلبانه ارائه میده؛ با این حال، یه سایت ممکنه به عنوان مجازات برای نقض دستورالعمل‌های وبمستر گوگل، به شکل یه اقدام دستی، از ایندکس حذف بشه. بهش Delisting هم میگن.

    Destination Site (سایت مقصد)

    به سایتی گفته میشه که کاربر مستقیما بعد از ترک یه دامنه، ازش بازدید میکنه.

    Direct Traffic (ترافیک مستقیم)

    تو گوگل آنالیتیکس، کاربرایی که با تایپ کردن مستقیم URL تو مرورگر یا با کلیک کردن روی یه بوکمارک مستقیما به سایت میان، به عنوان ترافیک مستقیم شناخته میشن. گوگل هر منبع ترافیکی رو که نشناسه هم تو ترافیک مستقیم حساب میکنه.

    Directory (دایرکتوری)

    به لیستی از وب‌سایت‌ها گفته میشه که معمولا بر اساس دسته‌بندی‌های مرتبط جدا شدن و توسط ویراستارهای انسانی نگهداری میشن. بسته به دایرکتوری، قرار گرفتن تو لیست میتونه رایگان یا پولی باشه. در گذشته، لینک گرفتن از دایرکتوری‌ها (مثل DMOZ) خیلی مورد توجه بود، که این موضوع منجر به سوءاستفاده گسترده و کاهش ارزش کلی این نوع لینک‌سازی شد.

    Disavow (رد کردن)

    اگه پروفایل لینک شما شامل تعداد زیادی لینک ورودی اسپم، مصنوعی یا بی‌کیفیت باشه که ممکنه به رتبه‌بندی شما آسیب بزنه – و شما نتونی به یه دلیل قانونی اونها رو حذف کنی (مثلا لینک تو سایتیه که شما کنترلی روش نداری) – میتونی از ابزار Disavow Tool گوگل استفاده کنی تا به گوگل بگی اون لینک‌ها رو نادیده بگیره.

    Disavow File (فایل رد کردن)

    لیستی از بک‌لینک‌ها که میشه به گوگل فرستاد تا موقع بررسی سایت شما برای یه جریمه احتمالی، اونها رو در نظر نگیره. تو ابزار سمراش، میتونی یه فایل متنی disavow تو کمپین Backlink Audit بسازی.

    Display Ads (تبلیغات نمایشی)

    یه نوع تبلیغات آنلاینه که متن، عکس و یه URL رو که به یه وب‌سایت لینک میده، ترکیب میکنه. این تبلیغات میتونن ثابت با یه عکس یا متحرک با چند عکس، ویدیو یا متن متغیر باشن.

    DMOZ

    مخفف The Open Directory Project. این دایرکتوری انسانی وب‌سایت‌ها تو ۵ ژوئن ۱۹۹۸ راه‌اندازی شد و تو ۱۷ مارس ۲۰۱۷ بسته شد.

    Do-follow (دنبال کردن)

    لینکی که از ویژگی «nofollow» استفاده نمیکنه. به عبارت دیگه، یه لینک معمولی. این لینک‌ها به گوگل و موتورهای جستجوی دیگه اجازه میدن ترافیک رو به سایت یا وبلاگ شما هدایت کنن و اعتبار منتقل کنن.

    Domain (دامنه)

    دامنه همون آدرس وب‌سایته که معمولا با پسوندی مثل .com، .org یا .net تموم میشه. برای مثال، www.searchenginejournal.com دامنه این وب‌سایته.

    Domain Age (عمر دامنه)

    به تاریخ ثبت یه دامنه تا تاریخ امروز، عمر دامنه میگن. برای مثال، Search Engine Journal تو ۱۰ ژوئن ۲۰۰۳ ثبت شده، پس عمر دامنه قابل توجهی داره. یه زمانی تصور میشد که عمر دامنه بیشتر، اعتبار بیشتری به دامنه میده، اما این ایده که عمر دامنه روی رتبه‌بندی تاثیر داره، از اون موقع رد شده.

    Domain Authority (اعتبار دامنه)

    این اصطلاح به دو مورد اشاره داره:

    • «قدرت» کلی یه وب‌سایت که در طول زمان ساخته میشه و میتونه به یه صفحه جدید کمک کنه سریع رتبه خوبی بگیره، حتی قبل از اینکه اون محتوا لینک یا تعامل جذب کنه.
    • امتیازی بین ۰ تا ۱۰۰ که شرکت نرم‌افزاری سئو به اسم Moz ازش برای پیش‌بینی توانایی یه وب‌سایت برای رتبه‌بندی تو نتایج جستجو استفاده میکنه. این یه معیار پیش‌بینی‌کننده است که چقدر یه سایت میتونه رتبه بگیره.

    Domain History (تاریخچه دامنه)

    هر فعالیتی، از جمله بک‌لینک‌ها و وب‌سایتی که قبلا روی یه دامنه ساخته شده، به عنوان تاریخچه دامنه شناخته میشه. اگه یه وب‌سایت قبلی روی یه دامنه جریمه شده باشه، این جریمه به دامنه میچسبه و برای صاحب جدید مشکل‌ساز میشه. توصیه میشه همیشه قبل از خرید یه دامنه، تاریخچه اون رو بررسی کنید.

    Doorway Page (صفحه درگاه)

    صفحات درگاه صفحاتی هستن که فقط برای رتبه‌بندی تو موتورهای جستجو برای کلمات کلیدی خاص ایجاد میشن تا کاربرایی رو که روی اون صفحه کلیک میکنن، به یه وب‌سایت دیگه هدایت کنن. این صفحات کیفیت پایینی دارن و برای دستکاری ایندکس موتورهای جستجو طراحی شدن.

    DuckDuckGo (داک‌داک‌گو)

    یه موتور جستجو که تو ۲۸ سپتامبر ۲۰۰۸ تاسیس شد. این موتور جستجو به خاطر تمرکز زیادش روی حریم خصوصی کاربر و نبود حباب فیلتر (شخصی‌سازی جستجو) اغلب تحسین میشه. داک‌داک‌گو برای ارائه نتایج جستجوی خودش به بیشتر از ۴۰۰ منبع، از جمله موتورهای جستجوی عمودی، خزنده خودش به اسم DuckDuckBot، بینگ و یاندکس متکیه. تو سال ۲۰۱۶، ۴ میلیارد جستجو تو داک‌داک‌گو انجام شد.

    Duplicate Content (محتوای تکراری)

    محتوای تکراری زمانی اتفاق میفته که بخش قابل توجهی از محتوای یه صفحه وب با محتوایی که جای دیگه‌ای روی همون وب‌سایت یا یه وب‌سایت کاملا متفاوت وجود داره، یکسان یا خیلی شبیه باشه. محتوای تکراری میتونه موتورهای جستجو رو موقع تصمیم‌گیری برای ایندکس کردن صفحه گیج کنه و به سئوی سایت آسیب بزنه. این یه سیگنال بد برای سئو محسوب میشه و میتونه منجر به جریمه از طرف موتور جستجو بشه.

    Dwell Time (زمان ماندگاری)

    زمان ماندگاری به مدت زمانی گفته میشه که بین کلیک یه کاربر روی یه نتیجه جستجو و بازگشتش از اون وب‌سایت به صفحه نتایج (SERP) میگذره. زمان ماندگاری کوتاه (مثلا کمتر از ۵ ثانیه) میتونه برای موتورهای جستجو یه نشونه از محتوای بی‌کیفیت باشه.

    ر

    Rank (رتبه)

    به جایگاهی گفته میشه که یه صفحه وب تو نتایج جستجوی ارگانیک برای یه جستجوی خاص ظاهر میشه.

    RankBrain (رنک‌برین)

    رنک‌برین یه تغییر بزرگ تو الگوریتم گوگل بود که رسما تو اکتبر ۲۰۱۵ معرفی شد، هرچند ماه‌ها قبل از اون در حال آزمایش بود. با رنک‌برین، گوگل یادگیری ماشین رو به الگوریتمش اضافه کرد و گفته میشه که سومین سیگنال رتبه‌بندی مهم هست. تو ژوئن ۲۰۱۶، مشخص شد که رنک‌برین در هر جستجویی دخالت داره و روی رتبه‌بندی‌ها تاثیر میذاره. این بخش از الگوریتم اصلی گوگل از یادگیری ماشین برای پیدا کردن مرتبط‌ترین نتایج برای جستجوها استفاده میکنه.

    Ranking Factor (فاکتور رتبه‌بندی)

    به هر جزء جداگانه‌ای گفته میشه که در مجموعه‌ای پیچیده از الگوریتم‌ها که جایگاه صفحات وب رو تو نتایج جستجوی ارگانیک برای یه جستجوی خاص تعیین میکنن، نقش داره. سال‌هاست که گوگل میگه الگوریتم‌هاش برای کمک به کاربرا برای پیدا کردن مرتبط‌ترین صفحه وب یا پاسخ، به «بیشتر از ۲۰۰ سیگنال منحصر به فرد» متکی هستن. بهش سیگنال رتبه‌بندی هم میگن.

    Reciprocal Links (لینک‌های متقابل)

    زمانی که دو وب‌سایت توافق میکنن که به همدیگه لینک بدن. این کار زمانی که به طور طبیعی و برای منفعت بازدیدکننده‌ها انجام بشه، مشکلی نداره. اما استراتژی‌های تبادل لینک کلاه خاکستری/سیاه هم وجود دارن که میتونن منجر به جریمه بشن.

    Redirect (ریدایرکت)

    ریدایرکت یه تکنیکه که یه کاربر (یا موتور جستجو) رو که یه صفحه وب رو درخواست کرده، به یه صفحه وب متفاوت (اما به همون اندازه مرتبط) میفرسته. این تکنیک برای تغییر آدرس یه صفحه فرود استفاده میشه. دو نوع ریدایرکت وجود داره:

    • ۳۰۱ (Permanent): این کد وضعیت HTTP نشون‌دهنده یه ریدایرکت دائمیه که یه URL رو به یه URL دیگه منتقل میکنه. این نوع ریدایرکت به یه وب‌سایت کمک میکنه ارزش سئوی یه بک‌لینک رو که به یه صفحه حذف شده میره، حفظ کنه. این بهترین روش برای سئو هست.
    • ۳۰۲ (Temporary): این کد وضعیت HTTP نشون‌دهنده یه ریدایرکت موقتیه. تفاوت اصلیش با ۳۰۱ اینه که موتورهای جستجو سیگنال‌های اعتماد بک‌لینک‌ها رو از طریق ریدایرکت ۳۰۲ منتقل نمیکنن.
    • ۳۰۷ (Temporary): این کد وضعیت HTTP هم نشون‌دهنده یه ریدایرکت موقتیه. تفاوتش با ۳۰۲ اینه که با اومدن HTTP 1.1، ۳۰۷ جایگزین اون به عنوان یه ریدایرکت موقت معتبر شده و دقیقا میگه که URL درخواستی به یه مکان موقت منتقل شده.

    Referrer (ارجاع‌دهنده)

    به داده‌های URL گفته میشه که منبع درخواست یه صفحه وب از طرف کاربر رو مشخص میکنه. این میتونه نتیجه جستجو، یه دامنه دیگه یا یه منبع رسانه اجتماعی باشه که بازدیدکننده سایت از اونجا اومده.

    Reinclusion (درج مجدد)

    به فرایند درخواست از یه موتور جستجو برای بازگردوندن یه وب‌سایت یا صفحه وب به فهرست جستجوی خودش بعد از حذف شدن از ایندکس گفته میشه.

    Relevance (مرتبط بودن)

    مرتبط بودن یه روشه که موتورهای جستجو با اون اندازه‌گیری میکنن که محتوای یه صفحه وب چقدر با زمینه یه جستجو هماهنگه. این یه معیاره که نشون میده یه سایت چقدر با جستجوی کاربر مطابقت داره.

    Reputation Management (مدیریت شهرت)

    به عمل ایجاد یه تصویر آنلاین مثبت از یه برند یا شخص – از جمله تو نتایج جستجو و رسانه‌های اجتماعی – با به حداقل رسوندن دیده شدن اشاره‌های منفی گفته میشه.

    Responsive Website / Responsive Design (وب‌سایت واکنش‌گرا / طراحی واکنش‌گرا)

    یه وب‌سایت که طوری طراحی شده تا به طور خودکار با اندازه صفحه نمایش کاربر، چه روی دسکتاپ و چه روی دستگاه موبایل، سازگار بشه. این طراحی تضمین میکنه که یه سایت روی همه دستگاه‌ها به درستی نمایش داده میشه.

    Rich Snippet (ریچ اسنیپت)

    ریچ اسنیپت داده‌های ساختاریافته‌ای هستن که میشه به HTML یه وب‌سایت اضافه کرد تا اطلاعات متنی بیشتری به موتورهای جستجو موقع خزیدن بده. این اطلاعات بعدا میتونن تو SERP نمایش داده بشن و یه لیست بهبود یافته ایجاد کنن که بهش ریچ اسنیپت میگن. مثال‌هاش شامل ستاره‌های نقد و بررسی، ساعات کاری، عکس‌ها و دسته‌بندی‌هاست.

    robots.txt

    فایل Robots Exclusion Protocol یا Standard یه فایل متنیه که تو ریشه یه وب‌سایت قابل دسترسه و به خزنده‌های موتور جستجو میگه کدوم بخش‌های یه وب‌سایت باید نادیده گرفته بشن. ربات‌ها قبل از بازدید از URLها این فایل رو میخونن و این فایل میتونه با دستور «disallow» به ربات‌ها بگه از بازدید دایرکتوری‌های خاص خودداری کنن.

    Return on Investment (ROI) (بازگشت سرمایه)

    ROI روشی برای اندازه‌گیری عملکرد فعالیت‌های سئو هست. این معیار با تقسیم درآمدی که از طریق جستجوی ارگانیک به دست اومده بر هزینه کل سرمایه‌گذاری و ضرب کردن در ۱۰۰ محاسبه میشه.

    Root Domain (دامنه ریشه)

    بالاترین سطح سلسله مراتبی یه وب‌سایت که شامل همه زیردامنه‌ها و زیرپوشه‌ها میشه. دامنه ریشه با یه نقطه و TLD (مثل .com، .org و غیره) دنبال میشه.

    س

    SaaS (نرم‌افزار به عنوان سرویس)

    مخفف Software as a Service. یه مدل ارائه نرم‌افزاره که از طریق یه لایسنس مبتنی بر اشتراک که از یه مکان مرکزی روی وب میزبانی میشه، انجام میشه. سمراش (Semrush)، جیمیل و نتفلیکس نمونه‌هایی از SaaS هستن.

    SAB (کسب‌وکار منطقه خدماتی)

    مخفف Service Area Business. یه کسب‌وکاره که ممکنه فروشگاه محلی داشته باشه یا نداشته باشه، اما با رفتن به مکان مشتری‌ها خدمات ارائه میده. مثل خدمات تحویل، لوله‌کش‌ها و شرکت‌های محوطه‌سازی.

    Schema (اسکیما)

    اسکیما یه نوع میکرودیتاست که وقتی به یه صفحه وب اضافه میشه، یه توضیحات بهبود یافته (که معمولا بهش ریچ اسنیپت میگن) ایجاد میکنه که تو نتایج جستجو ظاهر میشه. این یه زبان معنایی از تگ‌هاست که به موتورهای جستجو کمک میکنه وب‌سایت شما رو بهتر درک و نمایش بدن.

    Schema.org

    یه وب‌سایته که مستندات و دستورالعمل‌های استفاده از نشانه‌گذاری داده‌های ساختاریافته رو منتشر کرده.

    Scrape (خراشیدن)

    یه تکنیکه که برای کپی کردن محتوا یا اطلاعات وب‌سایت با استفاده از یه برنامه کامپیوتری یا اسکریپت استفاده میشه. موتورهای جستجو مثل گوگل، داده‌ها رو خراش میدن تا یه فهرست قابل جستجو از وب‌سایت‌ها بسازن.

    Search Engine (موتور جستجو)

    موتور جستجو یه برنامه کامپیوتریه که به کاربرا اجازه میده یه جستجو (Query) وارد کنن تا اطلاعات (مثل فایل‌ها، وب‌سایت‌ها، صفحات وب) رو از فهرست اون برنامه بازیابی کنن. یه موتور جستجوی وب، مثل گوگل، وب‌سایت‌ها، صفحات وب و فایل‌هایی رو که تو شبکه جهانی وب پیدا میشن، ایندکس میکنه. این فهرست با استفاده از یه خزنده ساخته و به‌روز میشه و موارد توسط یه سری الگوریتم تحلیل و رتبه‌بندی میشن.

    Search Engine Marketing (SEM) (بازاریابی موتور جستجو)

    SEM یه اصطلاح کلی برای افزایش دیده شدن یه وب‌سایت تو صفحات نتایج موتور جستجو هست که هم فعالیت‌های پولی و هم ارگانیک رو شامل میشه. تاکتیک‌هاش شامل تبلیغات PPC، گوگل شاپینگ، بازاریابی رسانه‌های اجتماعی، سئو و بازاریابی محتواست.

    Search Engine Optimization (SEO) (بهینه‌سازی موتور جستجو)

    سئو فرایند بهینه‌سازی یه وب‌سایت – و همچنین همه محتوای اون وب‌سایت – هست تا تو موقعیت‌های برجسته تو نتایج ارگانیک موتورهای جستجو ظاهر بشه. سئو به درک نحوه کار موتورهای جستجو، چیزی که آدما جستجو میکنن (یعنی کلمات کلیدی) و چرایی جستجوی آدما (قصد) نیاز داره. سئوی موفق، یه سایت رو برای کاربرا و موتورهای جستجو جذاب میکنه. این ترکیبی از سئوی فنی (On-Page SEO) و بازاریابی (Off-Page SEO) هست.

    Search Engine Results Page (SERP) (صفحه نتایج موتور جستجو)

    SERP صفحه‌ایه که موتورهای جستجو بعد از انجام یه جستجو به کاربرا نمایش میدن. به طور معمول، موتورهای جستجو حدود ۱۰ نتیجه ارگانیک رو که بر اساس مرتبط بودن مرتب شدن، نشون میدن. بسته به جستجو، ویژگی‌های دیگه‌ای هم ممکنه نمایش داده بشن، از جمله:

    • تبلیغات AdWords (بالا و پایین نتایج ارگانیک)
    • اسنیپت‌های ویژه (Featured Snippets)
    • تصاویر
    • پنل‌های دانش (Knowledge Panels)
    • پک محلی (Local Pack) با نقشه
    • اخبار
    • سوالات مرتبط
    • جستجوهای مرتبط
    • نتایج خرید
    • لینک‌های سایت (Sitelinks)
    • توییت‌ها
    • ویدیوها

    Search History (تاریخچه جستجو)

    موتورهای جستجو هر جستجویی رو که کاربرا انجام میدن (متنی و صوتی)، هر صفحه وبی رو که بازدید میکنن و هر تبلیغی رو که روش کلیک میکنن، ردیابی میکنن. موتورهای جستجو ممکنه از این داده‌ها برای شخصی‌سازی نتایج برای کاربرای وارد شده به حساب کاربریشون استفاده کنن.

    Search Intent (قصد جستجو)

    به دلیل اصلی که یه کاربر یه جستجو رو انجام میده، اشاره داره.

    Search Query (جستار یا کوئری جستجو)

    کلمه یا عبارتی که یه کاربر تو موتور جستجو تایپ میکنه تا وب‌سایت‌ها و اطلاعات مرتبط رو پیدا کنه.

    Search Volume (حجم جستجو)

    به تعداد دفعاتی که یه کلمه کلیدی تو یه دوره زمانی مشخص، معمولا یه ماه، جستجو میشه، اشاره داره. این میانگین تعداد جستجوهای ماهانه برای یه کلمه کلیدی در طول ۱۲ ماه گذشته است.

    Seasonal Trends (روندهای فصلی)

    افزایش و کاهش طبیعی کلمات کلیدی در زمان‌های خاصی از سال. برای مثال، کلمه کلیدی «لباس هالووین» در ماه‌های پاییز افزایش و در بهار و تابستان کاهش پیدا میکنه.

    Seed Keyword (کلمه کلیدی بذر)

    یه کلمه کلیدی کوتاه، که معمولا شامل یک یا دو کلمه است. این کلمه کلیدی اصلیه که میخوای براش رتبه بگیری و به عنوان یه اصطلاح کلی در نظر گرفته میشه.

    Semantic Core (هسته معنایی)

    گروهی از کلمات کلیدی که به دقیق‌ترین شکل، جهت یا زمینه یه وب‌سایت رو مشخص میکنن. با تحلیل کلمات کلیدی تو یه هسته معنایی، موتورهای جستجو میتونن محتوای یه وب‌سایت رو با جستجوهای مرتبط کاربرا دقیق‌تر تطبیق بدن.

    Semantic Search (جستجوی معنایی)

    فرایندیه که موتورهای جستجو برای درک قصد و معنای متنی یه جستجو استفاده میکنن تا نتایج مرتبط‌تری ارائه بدن.

    SERP Features (ویژگی‌های SERP)

    هر نتیجه‌ای تو صفحه نتایج جستجوی گوگل که یه نتیجه ارگانیک سنتی نیست. رایج‌ترین ویژگی‌های SERP نتایج پولی، اسنیپت‌های ویژه، پک‌های محلی و پنل‌های دانش هستن. بهشون ریچ اسنیپت هم میگن.

    Share of Voice (سهم از صدا)

    سهم از صدا معیاریه که نشون میده یه برند در مقایسه با رقبای خودش، چه تعداد نمایش (Impression) برای کلمات کلیدی خاصی تو SERP دریافت میکنه. تو ابزار سمراش، این معیار حجم ترکیبی کل کلمات کلیدی یه کمپین Position Tracking رو در نظر میگیره و نسبت ترافیکی رو که هر سایت میگیره نشون میده.

    Sitelinks (لینک‌های سایت)

    حداکثر شش لینک که به صورت الگوریتمی انتخاب میشن و زیر لیست نتیجه ارگانیک رتبه بالای یه وب‌سایت ظاهر میشن. این لینک‌ها به بازدیدکننده‌ها کمک میکنن سریع به اطلاعات مهم یه وب‌سایت دسترسی پیدا کنن.

    Sitemap (نقشه سایت)

    نقشه سایت لیستی از صفحات یه وب‌سایته. دو نوع نقشه سایت وجود داره:

    • HTML: این نوع نقشه سایت، که معمولا بر اساس موضوعات سازماندهی شده، به کاربرا کمک میکنه تو یه وب‌سایت ناوبری کنن.
    • XML: این نوع نقشه سایت لیستی از صفحات وب یه وب‌سایت رو به خزنده‌ها ارائه میده تا بتونن محتوای شما رو کشف و ایندکس کنن.

    Sitewide Links (لینک‌های سراسری سایت)

    لینکی که تو هر صفحه از یه وب‌سایت ظاهر میشه، معمولا تو سایدبار یا فوتر وبلاگ‌ها یا وب‌سایت‌هایی که از قالب استفاده میکنن.

    Social Media (رسانه اجتماعی)

    پلتفرم‌ها (وب‌سایت‌ها و اپلیکیشن‌ها)یی که کاربرا میتونن با همدیگه تعامل داشته باشن و محتوا ایجاد، به اشتراک و مصرف کنن.

    Social Signal (سیگنال اجتماعی)

    هر عاملی که اعتبار و تاثیر رو تو وب‌سایت‌های شبکه اجتماعی محبوب نشون میده. مثل اعتبار اجتماعی یه کاربر تو توییتر. هرچند خیلی از مطالعات همبستگی نشون دادن که سیگنال‌های اجتماعی روی رتبه‌بندی تاثیر دارن (مثل تعداد لایک/اشتراک‌گذاری یه محتوا)، گوگل به طور عمومی اعلام کرده که سیگنال‌های اجتماعی یه فاکتور رتبه‌بندی مستقیم نیستن.

    Spam (اسپم)

    به طور کلی به هر نوع ارتباط دیجیتال ناخواسته و دعوت نشده‌ای که به صورت انبوه ارسال میشه، گفته میشه. تو سئو بهش Webspam هم میگن.

    Spider (عنکبوت)

    اسم دیگه‌ای برای Bot یا Crawler هست.

    Split Testing (تست اسپلیت)

    یه آزمایش کنترل شده که برای مقایسه حداقل دو صفحه وب برای اندازه‌گیری تاثیر یه متغیر متفاوت بر تبدیل‌ها استفاده میشه. بعد از اینکه صفحات برای مدت زمان کافی به بازدیدکننده‌های سایت نشون داده شدن تا داده‌های عملکرد کافی جمع‌آوری بشه، میشه یه «برنده» اعلام کرد. بهش A/B Testing هم میگن.

    SSL Certificate (گواهی SSL)

    SSL مخفف Secure Sockets Layer هست، یه تکنولوژی امنیتی که یه لینک رمزگذاری شده بین یه وب سرور و یه مرورگر وب ایجاد میکنه. گواهی SSL هویت یه وب‌سایت رو تایید میکنه و امکان یه اتصال رمزگذاری شده رو فراهم میکنه. وب‌سایتی که از گواهی SSL استفاده میکنه، آیکون قفل و https رو به آدرسش اضافه میکنه.

    Status Codes (کدهای وضعیت)

    کدهای پاسخی هستن که یه سرور هر بار که روی یه لینکی کلیک میشه، یه صفحه وب یا فایل درخواست میشه یا یه فرم ارسال میشه، میفرسته. کدهای وضعیت HTTP مهم برای سئو عبارتند از:

    • ۲۰۰ (OK): درخواست موفقیت‌آمیز بوده.
    • ۳۰۱ (Permanent Redirect): منبع به طور دائم منتقل شده.
    • ۳۰۲ (Temporary Redirect): منبع به طور موقت منتقل شده.
    • ۳۰۷ (Temporary Redirect): جایگزین ۳۰۲ در HTTP 1.1.
    • ۴۰۳ (Forbidden): کلاینت اجازه دسترسی به یه URL معتبر رو نداره.
    • ۴۰۴ (Not Found): صفحه یا سندی که دیگه پیدا نمیشه.
    • ۴۱۰ (Gone): منبع برای همیشه حذف شده.
    • ۵۰۰ (Internal Server Error): سرور با وضعیتی مواجه شده که نمیدونه چطور مدیریتش کنه.
    • ۵۰۲ (Bad Gateway): سرور موقع کار به عنوان یه دروازه، یه پاسخ نامعتبر دریافت کرده.
    • ۵۰۳ (Service Unavailable): سرور موقتا در دسترس نیست.

    Stop Word (کلمه ایست)

    یه کلمه پرکاربرد. برای مثال: a، at، for، is، of، on، the. موتورهای جستجو در گذشته این کلمات رو برای صرفه‌جویی در زمان/منابع موقع ایندکس کردن نادیده میگرفتن. اما موتورهای جستجو خیلی پیشرفت کردن و کلمات ایست گاهی اوقات معنی‌دار هستن، پس این چیزی نیست که برای سئو زیاد نگرانش باشی.

    Structured Data (داده ساختاریافته)

    یه واژگان معنایی از تگ‌ها (یا میکرودیتا) که میتونی به HTML خودت اضافه کنی تا نحوه خوندن و نمایش صفحه شما تو SERPها رو توسط موتورهای جستجو بهبود ببخشی. بهش markup هم میگن.

    Subdomain (زیردامنه)

    یه بخش جداگانه که داخل یه دامنه اصلی وجود داره. برای مثال، https://jobs.searchenginejournal.com/ یه زیردامنه است که داخل دامنه اصلی https://www.searchenginejournal.com/ قرار داره.

    Subfolder (زیرپوشه)

    یه بخش داخل یه وب‌سایت که با یه اسلش «/» بعد از TLD و اسم پوشه مشخص میشه. برای مثال، example.com/subfolder یه زیرپوشه داخل دامنه example.com هست.

    ف

    Facebook Engagement (تعامل فیسبوک)

    مجموع اشتراک‌گذاری‌ها، لایک‌ها، واکنش‌ها (wow، sad، angry و غیره) و کامنت‌هاییه که روی همه پست‌ها در یه دوره زمانی مشخص گذاشته شده.

    Favicon (فاوآیکون)

    فاوآیکون‌ها گرافیک‌های کوچکی هستن که تو تب‌های مرورگر، لیست‌های بوکمارک، تاریخچه جستجو، تبلیغات جستجو و حتی نتایج جستجو برای نمایش برند شما ظاهر میشن.

    Featured Snippet (اسنیپت ویژه)

    برای بعضی از جستجوها، معمولا سوال‌ها (یعنی کی/چی/کجا/کی/چرا/چطور)، گوگل گاهی اوقات یه بلوک ویژه بالای نتایج ارگانیک نشون میده. این جعبه شامل یه خلاصه (به شکل پاراگراف، لیست، جدول یا ویدیو)، و همچنین تاریخ انتشار، عنوان صفحه، لینک به صفحه وبی که جواب از اونجا اومده و URL هست. بهش Position Zero هم میگن.

    Findability (قابلیت پیدا شدن)

    به میزان آسانی که محتوای یه وب‌سایت میتونه هم به صورت داخلی (توسط کاربرا) و هم به صورت خارجی (توسط موتورهای جستجو) کشف بشه، اشاره داره.

    First Link Priority (اولویت لینک اول)

    یه مفهوم تو لینک‌سازی داخلیه که میگه اگه دو تا لینک روی یه صفحه وب به یه صفحه یکسان اشاره کنن، گوگل باهاشون متفاوت رفتار میکنه. تصور میشد که گوگل انکر تکست لینک اول رو با نفوذتر در نظر میگیره. هیچ مدرک قطعی در مورد نحوه برخورد گوگل با لینک یکسان روی یه صفحه وجود نداره. موقع اضافه کردن لینک به یه صفحه، توصیه میشه این کار بر اساس اولویت کاربر انجام بشه.

    Footer Link (لینک فوتر)

    لینک‌هایی که تو بخش پایینی (یا «فوتر») یه وب‌سایت ظاهر میشن.

    Freshness (تازگی)

    تازگی به عمر محتوای منتشر شده آنلاین اشاره داره. تصور میشه که گوگل تو بعضی حوزه‌ها برای بعضی جستجوها بسته به عوامل خاصی به محتوای تازه اولویت میده. برای مثال، جستجوهای مربوط به اخبار کووید یا نتایج ورزشی.

    FTP

    مخفف File Transfer Protocol هست و برای انتقال فایل‌ها به و از یه کامپیوتر، شبکه یا وب‌سایت استفاده میشه.

    ق

    QDF (کوئری سزاوار تازگی است)

    مخفف Query Deserves Freshness. زمانیه که یه موتور جستجو ممکنه تصمیم بگیره صفحات وب جدیدتر رو تو نتایج جستجو نشون بده (به جای صفحات قدیمی‌تر)، اگه یه عبارت جستجوی خاصی در حال ترند شدن باشه، شاید به خاطر اینکه یه رویداد خبری باعث افزایش جستجوها در مورد اون موضوع شده.

    Quality Content (محتوای با کیفیت)

    محتوایی که به شما کمک میکنه با موفقیت به اهداف تجاری یا بازاریابی خودتون برسید (مثل جذب ترافیک ارگانیک یا اشتراک‌گذاری‌های اجتماعی، کسب رتبه‌های بالای جستجو، تولید سرنخ/فروش). محتوای با کیفیت، کاربران رو درگیر، مطلع و خوشحال میکنه.

    Quality Link (لینک با کیفیت)

    یه لینک ورودی که از یه وب‌سایت معتبر، مرتبط یا قابل اعتماد سرچشمه میگیره.

    Quality Score (امتیاز کیفیت)

    معیار اندازه‌گیری گوگل برای کیفیت یه تبلیغه و بر اساس چند عامل، از جمله نرخ کلیک مورد انتظار از SERP، مرتبط بودن تبلیغ با کلمه کلیدی، مرتبط بودن صفحه فرود با تبلیغ و کلمه کلیدی، محاسبه میشه.

    Query (کوئری یا جستار)

    کلمه، کلمات یا عبارتی که یه کاربر تو موتور جستجو وارد میکنه. بهش جستجو هم میگن.

    ک

    Cache (کش)

    کش یه تکنولوژیه که محتوای وب، مثل عکس‌ها، رو به طور موقت ذخیره میکنه تا زمان بارگذاری صفحه در آینده کاهش پیدا کنه. این یه فضای ذخیره‌سازی موقته که فایل‌های موقت رو جمع‌آوری میکنه.

    Cached Page (صفحه کش شده)

    یه عکس فوری از یه صفحه وب، همونطور که موقع آخرین خزش یه موتور جستجو ظاهر شده.

    Call to Action (CTA) (فراخوان به اقدام)

    کاریه که میخوای مخاطب هدف شما بعد از دریافت پیام بازاریابی شما انجام بده. CTA به وضوح مرحله بعدی رو مشخص میکنه. بعضی از مثال‌هاش عبارتند از: «بیشتر بدانید»، «با ما تماس بگیرید»، «اکنون خرید کنید»، «ما را دنبال کنید» و «ثبت‌نام کنید».

    Canonical URL (URL کنونیکال)

    یه عنصر کد HTML که URL وب‌سایت ترجیحی رو مشخص میکنه، وقتی که چندین URL محتوای یکسان یا مشابهی دارن، تا محتوای تکراری کاهش پیدا کنه. بهش Canonicalization هم میگن.

    ccTLD

    مخفف Country-Code Top-Level Domain. برای مثال، یه شرکت مستقر تو بریتانیا دامنه‌ای مثل www.example.co.uk داره که uk همون ccTLD هست.

    Citation (استناد)

    تو سئوی محلی، استناد به هر اشاره آنلاینی به اسم، آدرس یا شماره تلفن (NAP) یه برند گفته میشه. استنادها معمولا تو دایرکتوری‌ها، پروفایل‌های شبکه‌های اجتماعی و انجمن‌ها، لیست منابع وب‌سایت‌ها یا هر اشاره‌ای به یه برند آنلاین که لینکی به وب‌سایت نداره، پیدا میشن. NAPها میتونن روی رتبه‌بندی و دیده شدن تو نقشه‌های گوگل تاثیر بذارن.

    Citation Building (ساخت استناد)

    فرایند تضمین اشاره یا استناد به NAP یه کسب‌وکار (اسم، آدرس، شماره تلفن) و سایر اطلاعات مرتبط در وب‌سایت‌های مختلف.

    Click Bait (کلیک‌بیت)

    محتوایی که برای وسوسه کردن آدما به کلیک کردن طراحی شده، معمولا با وعده‌های بیش از حد یا گمراه‌کننده بودن عمدی تو تیترها، تا ناشرها بتونن درآمد تبلیغاتی کسب کنن.

    Click Depth (عمق کلیک)

    عمق کلیک تعداد کلیک‌هاییه که برای رسیدن از صفحه اصلی یا یه صفحه ورودی به یه صفحه مقصد تو یه وب‌سایت لازمه. هرچی کلیک‌های بیشتری لازم باشه، احتمال اینکه گوگل اون صفحه رو بخزه یا رتبه بگیره کمتره. صفحاتی که به صفحه اصلی نزدیک‌ترن، معتبرترین و محتمل‌ترین صفحات برای خزیدن و ایندکس شدن توسط گوگل در نظر گرفته میشن. عمق کلیک برای خزیدن کارآمد صفحات و برای جریان ارزش لینک (Link Equity) مهمه و بنابراین به طور غیر مستقیم روی رتبه‌بندی تاثیر میذاره.

    Click Potential (پتانسیل کلیک)

    معیاری که برای سنجش شانس پیش‌بینی شده برای گرفتن کلیک به وب‌سایت شما، اگه نتیجه جستجوی شما جایگاه اول SERP رو اشغال کنه، استفاده میشه. پتانسیل کلیک به وجود ویژگی‌های SERP بستگی داره که ممکنه مانع کلیک جستجوگرها روی نتایج ارگانیک وب‌سایت بشن.

    Click-Through Rate (CTR) (نرخ کلیک)

    نرخ (که به صورت درصد بیان میشه) کلیک کاربرا روی یه نتیجه جستجوی ارگانیک. این معیار با تقسیم تعداد کل کلیک‌های ارگانیک بر تعداد کل نمایش‌ها (Impressions) و ضرب در ۱۰۰ محاسبه میشه.

    Clickstream Data (داده‌های کلیک‌استریم)

    داده‌هایی که در مورد کاربرا موقع وب‌گردی تو یه مرورگر وب جمع‌آوری میشن. این داده‌ها میتونن برای درک نحوه ناوبری آدما تو وب‌سایت‌ها و صفحات اینترنت استفاده بشن.

    Cloaking (کلاکینگ)

    کلاکینگ یعنی نشون دادن محتوا یا URLهای متفاوت به آدما و موتورهای جستجو. این کار نقض دستورالعمل‌های وبمستر گوگل محسوب میشه.

    CMS

    مخفف Content Management System یا سیستم مدیریت محتوا. یه اپلیکیشن مبتنی بر وبه که به آدما اجازه میده دارایی‌های دیجیتال رو ایجاد، آپلود و مدیریت کنن. برنامه‌هایی مثل وردپرس، بیشتر کارهای روزمره وبمستر رو از تولید محتوا جدا میکنن.

    Co-Citation (هم‌-استنادی)

    به تعداد دفعاتی که دو وب‌سایت (یا صفحه وب) توسط یه وب‌سایت سوم با هم ذکر میشن، حتی اگه اون دو مورد اول به همدیگه لینک ندن (یا به هم اشاره نکنن). این یه راهه که موتورهای جستجو میتونن شباهت موضوعی رو تشخیص بدن.

    Code To Text Ratio (نسبت کد به متن)

    مقدار متنی که روی یه صفحه نمایش داده میشه در مقایسه با مقدار کدی که برای ساختن اون صفحه استفاده شده، نسبت کد به متن نامیده میشه. نسبت بالاتر متن به کد، تجربه کاربری بهتری رو فراهم میکنه اما یه فاکتور رتبه‌بندی مستقیم نیست.

    Comment Spam (اسپم کامنت)

    کامنت‌های با نوشتار ضعیف، اغلب بی‌ربط به موضوع و خود-تبلیغاتی که توسط ربات‌های اسپم به امید گرفتن یه لینک رایگان (اما در نهایت بی‌ارزش) ارسال میشن.

    Competition (رقابت)

    دو نوع رقابت وجود داره:

    • رقبای مستقیم: شرکت‌هایی که محصولات و/یا خدمات مشابهی میفروشن، نیازهای یکسانی رو برآورده میکنن و مخاطب مشابهی رو هم به صورت آنلاین و هم آفلاین هدف قرار میدن.
    • رقبای سئو: شرکت‌هایی که برای کلمات کلیدی و دیده شدن تو جستجوی ارگانیک یکسانی رقابت میکنن، اما محصولات یا خدمات متفاوتی دارن که نیازها و/یا مخاطب‌های متفاوتی رو هدف قرار میدن.

    Content (محتوا)

    محتوا به کلمات، تصاویر، ویدیوها یا صداها (یا هر ترکیبی از اونها) گفته میشه که اطلاعاتی رو منتقل میکنن که برای توزیع و مصرف توسط مخاطب در نظر گرفته شده. محتوا یکی از دو فاکتور رتبه‌بندی مهم گوگل (در کنار لینک‌ها) هست. موتورهای جستجو میخوان به محتوایی که مفید، آموزنده، با ارزش، معتبر، منحصر به فرد و جذاب باشه، با ترافیک و دیده شدن بهتر پاداش بدن.

    Content is King (محتوا پادشاه است)

    این یه عبارته که اغلب توسط سخنران‌ها تو کنفرانس‌ها و نویسنده‌ها تو نشریات محبوب سئو (و بازاریابی دیجیتال) استفاده میشه. تو این زمینه، «محتوا پادشاه است» معمولا به این معنیه که محتوا برای هر گونه موفقیت تو سئو، بازاریابی دیجیتال یا کسب‌وکار ضروریه. این عبارت در واقع به مقاله‌ای از بیل گیتس به اسم «محتوا پادشاه است» که تو ۳ ژانویه ۱۹۹۶ منتشر شد، برمیگرده.

    Content Management System (CMS) (سیستم مدیریت محتوا)

    به برنامه‌هایی مثل وردپرس گفته میشه که به شما اجازه میدن بدون نیاز به مهارت‌های کدنویسی پیچیده، محتوای دیجیتال رو مدیریت کنید.

    Content Marketing (بازاریابی محتوا)

    یه رویکرد بازاریابی استراتژیکه که شامل ایجاد و توزیع محتوای (پست‌های وبلاگ، کتاب‌های الکترونیکی، ویدیوها، اینفوگرافیک‌ها و غیره) با ارزشه که برای مخاطب جذاب باشه. این محتوای با ارزش توجه رو به یه برند جلب میکنه، مخاطب میسازه و در نهایت به رشد درآمد کمک میکنه.

    Conversion (تبدیل)

    تبدیل زمانی اتفاق میفته که یه کاربر یه اقدام مورد نظر رو تو یه وب‌سایت تکمیل میکنه. مثال‌هایی از تبدیل عبارتند از:

    • تکمیل یه خرید.
    • اضافه کردن اقلام به سبد خرید.
    • تکمیل یه فرم (مثلا درخواست دمو، ثبت‌نام برای یه وبینار/رویداد).
    • دانلود محتوای ویژه (مثل کتاب الکترونیکی، وایت‌پیپر).
    • اشتراک در خبرنامه ایمیلی.
    • مشاهده ویدیو.

    Conversion Rate (نرخ تبدیل)

    نرخ (که به صورت درصد بیان میشه) تکمیل یه اقدام مورد نظر توسط کاربرای وب‌سایت. این معیار با تقسیم تعداد کل تبدیل‌ها بر ترافیک و ضرب در ۱۰۰ محاسبه میشه.

    Conversion Rate Optimization (CRO) (بهینه‌سازی نرخ تبدیل)

    CRO فرایند بهبود تعداد یا کیفیت تبدیل‌هاییه که تو یه وب‌سایت اتفاق میفته. بعضی از تاکتیک‌های محبوب CRO شامل تست تغییرات تو طراحی وب‌سایت، متن، تصاویر، قیمت، فراخوان به اقدام و پیام‌رسانیه.

    Core Update (آپدیت هسته)

    زمانی که گوگل به‌روزرسانی‌های گسترده‌ای رو تو الگوریتم اصلی خودش انجام میده. گوگل گاهی اوقات یه موضوع خاص رو برای به‌روزرسانی‌هاش اعلام میکنه، مثل آپدیت تجربه صفحه، اما آپدیت‌های هسته غیر اختصاصی هستن و چندین بار در سال اتفاق میفتن.

    Core Web Vitals (معیارهای حیاتی وب)

    مجموعه‌ای از معیارها که عملکرد صفحه رو در رابطه با تجربه کاربری اندازه‌گیری میکنن. Core Web Vitals در کنار آپدیت تجربه صفحه به عنوان سیگنال‌های اصلی که نشون‌دهنده یه تجربه کاربری خوب هستن، معرفی شدن:

    • Largest Contentful Paint (LCP): عملکرد بارگذاری.
    • Interaction to Next Paint (INP): پاسخگویی. (قبلا First Input Delay – FID بود).
    • Cumulative Layout Shift (CLS): ثبات بصری.

    گوگل تایید کرده که Core Web Vitals یه فاکتور رتبه‌بندی هستن اما گفته که مرتبط بودن و فاکتورهای دیگه ممکنه مهم‌تر باشن.

    Correlation (همبستگی)

    میزانی که یه رابطه بین دو یا چند عنصر وجود داره. اغلب تو تحقیقات سئو برای استنتاج روابط متغیرها بر رتبه‌بندی جستجو به خاطر ماهیت جعبه سیاه الگوریتم‌ها استفاده میشه. اما همیشه یادت باشه که همبستگی به معنای علیت نیست.

    Cost Per Click (CPC) (هزینه به ازای هر کلیک)

    این معیار نشون میده که به طور متوسط، پیشنهاد تبلیغاتی روی یه کلمه کلیدی خاص تو پایگاه‌های داده سمراش چقدر هزینه داره.

    Cost Per Thousand impressions (CPM) (هزینه به ازای هر هزار نمایش)

    یه معیار آماری که میانگین ارزش/هزینه تبلیغات پرداخت به ازای هر کلیک رو کمی میکنه. M از عدد رومی برای هزار میاد.

    Crawl Budget (بودجه خزش)

    بودجه خزش تعداد کل URLهایی هست که موتورهای جستجو میتونن و میخوان تو یه دوره زمانی مشخص تو یه وب‌سایت بخزن.

    Crawl Error (خطای خزش)

    به URLهایی گفته میشه که یه ربات موتور جستجو نمیتونه بخزه یا URLهایی که یه کد وضعیت خطا برمیگردونن.

    CRM

    مخفف Customer Relationship Management. اهداف CRM حفظ مشتری‌های فعلی، افزایش هزینه‌های اونها و تبدیل مشتری‌های بالقوه به مشتری‌های جدیده.

    Keyword (کلمه کلیدی)

    کلمه، کلمات یا عبارتی که یه متخصص سئو یا بازاریاب برای تطابق و رتبه‌بندی برای چیزی که کاربرا جستجو میکنن، هدف قرار میده. کلماتی که تو صفحات وب استفاده میشن میتونن به موتورهای جستجو کمک کنن تا تعیین کنن کدوم صفحات برای نمایش تو نتایج ارگانیک موقعی که یه جستجوگر یه کوئری وارد میکنه، مرتبط‌ترین هستن. کلمات کلیدی معمولا نماینده موضوعات، ایده‌ها یا سوالات هستن. بهش Keyphrase هم میگن.

    Keyword Cannibalization (هم‌نوع‌خواری کلمات کلیدی)

    یه نوع رقابت با خوده که وقتی اتفاق میفته که چندین صفحه از یه وب‌سایت برای یه کوئری یکسان تو یه SERP رتبه میگیرن. این میتونه منجر به CTR پایین‌تر، اعتبار کمتر و نرخ تبدیل پایین‌تر از داشتن یه صفحه وب یکپارچه که رتبه خوبی داره، بشه.

    Keyword Density (چگالی کلمات کلیدی)

    به تعداد دفعاتی که یه کلمه یا عبارت تو محتوای یه صفحه وب ظاهر میشه، اشاره داره. در بهترین حالت، این مفهوم اثبات نشده، اگه اصلا برای موتورهای جستجو مهم بوده باشه، قدیمی شده. هیچ درصد ایده‌آلی وجود نداره که به رتبه‌بندی بهتر یه صفحه وب کمک کنه.

    Keyword Difficulty (سختی کلمه کلیدی)

    تخمینی که نشون میده رقابت تو جستجوی ارگانیک برای یه کلمه کلیدی خاص چقدر سخته. هرچی تخمین بالاتر باشه، رقابت با وب‌سایت‌های فعلی که تو بالای نتایج گوگل رتبه دارن، سخت‌تره.

    Keyword Prominence (برجستگی کلمه کلیدی)

    وقتی یه کلمه کلیدی تا جای ممکن بالا تو یه صفحه وب قرار میگیره تا روی رتبه‌بندی برای یه عبارت جستجو تاثیر بذاره. استفاده از یه کلمه کلیدی که در ابتدای یه صفحه، مثلا تو پاراگراف اول، درج شده، سیگنال قوی‌ای به گوگل در مورد اون صفحه میفرسته. برجستگی کلمه کلیدی به عنوان یه سیگنال رتبه‌بندی کار میکنه اگه موضوع صفحه با کلمه کلیدی همسو باشه.

    Keyword Research (تحقیق کلمات کلیدی)

    فرایند کشف هر موضوع، مبحث و عبارت مرتبطی که جستجوگرها تو موتورهای جستجو وارد میکنن، و همچنین حجم و سطح رقابت اون عبارات. این کار با انواع ابزارهای رایگان و پولی امکان‌پذیره.

    Keyword Stemming (ریشه‌یابی کلمات کلیدی)

    تو زبان و گرامر، کلمات حول یه تغییر روی یه ریشه یا ساقه ساخته میشن. برای مثال، shopping، shopped، shops همگی تغییراتی از ریشه «shop» هستن. موقع تلاش برای رتبه‌بندی برای عبارتی مثل «shop»، استفاده از تغییرات کلمه تو صفحه (shopping، shopped) همگی توسط گوگل به عنوان همون کلمه کلیدی ریشه در نظر گرفته میشن. این به جمع‌ها مثل bikes/bike یا fly/flies هم مربوط میشه. ریشه‌یابی کلمات کلیدی، توانایی گوگل برای درک تغییرات یه کلمه کلیدیه و بخشی از الگوریتمشه.

    Keyword Stuffing (پر کردن کلمات کلیدی)

    اضافه کردن کلمات کلیدی نامرتبط، یا تکرار کلمات کلیدی فراتر از حد طبیعی، به یه صفحه وب به امید افزایش رتبه‌های جستجو. این تاکتیک اسپم برخلاف دستورالعمل‌های وبمستر گوگل هست و میتونه منجر به یه اقدام دستی بشه.

    Knowledge Graph (گراف دانش)

    یه پایگاه داده از موجودیت‌ها (Entities) که گوگل برای نمایش حقایق و اطلاعات در مورد آدما، مکان‌ها و چیزها – و ارتباطاتشون – تو یه پنل دانش یا کاروسل در بالای نتایج جستجو برای کوئری‌های مرتبط استفاده میکنه.

    Knowledge Panel (پنل دانش)

    یه جعبه که در بالای یا سمت راست (فقط دسکتاپ) صفحه اول نتایج جستجوی گوگل برای کوئری‌های مرتبط ظاهر میشه. این پنل شامل حقایق و اطلاعات در مورد آدما، مکان‌ها و چیزها، و همچنین لینک‌هایی به وب‌سایت‌های مرتبط یا جستجوهای گوگل هست.

    KPI

    مخفف Key Performance Indicator یا شاخص کلیدی عملکرد. یه روش اندازه‌گیری که کسب‌وکارها برای سنجش اینکه آیا اهداف، تارگت‌ها و مقاصد بازاریابی و تجاری در حال رسیدن هستن یا نه، استفاده میکنن.

    گ

    The Google (گوگل)

    موتور جستجویی که توسط لری پیج و سرگی برین تو سپتامبر ۱۹۹۸ تاسیس شد. گوگل یه تغییر رادیکال از دایرکتوری‌های وب ویرایش شده توسط انسان بود و به تکنولوژی خزیدن وب و یه الگوریتم پیچیده برای تحلیل الگوهای هایپرلینک برای رتبه‌بندی وب‌سایت‌ها متکی بود. گوگل پرکاربردترین موتور جستجو تو تقریبا همه کشورهای جهانه.

    Google Analytics (گوگل آنالیتیکس)

    یه برنامه تحلیل وب رایگان که میشه برای ردیابی رفتار مخاطب، منابع جذب ترافیک، عملکرد محتوا و خیلی چیزهای دیگه ازش استفاده کرد.

    GA4

    کوتاه شده «Google Analytics 4» که به آخرین نسخه گوگل آنالیتیکس اشاره داره. GA4 یه بازنگری کامل از نسخه قبلی، Universal Analytics (UA)، هست و کاملا جایگزینش شده.

    Google Bomb (بمب گوگل)

    یه روش که برای رتبه یک کردن یه وب‌سایت برای یه عبارت جستجوی غافلگیرکننده یا بحث‌برانگیز در نظر گرفته شده بود. این کار با داشتن تعداد زیادی وب‌سایت که به یه صفحه وب خاص با انکر تکست مشخص لینک میدادن، انجام میشد. برای مثال، تو سال ۲۰۰۳، بیوگرافی کاخ سفید رئیس جمهور جورج دبلیو بوش برای جستجوی «شکست مفتضحانه» رتبه یک رو کسب کرد.

    Googlebot (گوگل‌بات)

    سیستم خزیدن وبی که گوگل برای پیدا کردن و اضافه کردن وب‌سایت‌ها و صفحات وب جدید به فهرستش استفاده میکنه.

    Google Business Profile (پروفایل کسب‌وکار گوگل)

    که قبلا Google My Business نام داشت، یه ابزار رایگان برای کسب‌وکارهای محلیه تا حضورشون رو تو جستجوی گوگل و نقشه‌ها مدیریت کنن. این ابزار به کسب‌وکارها کمک میکنه اطلاعات کلیدی رو به نمایش بذارن، به نقدها پاسخ بدن، به‌روزرسانی‌ها رو پست کنن و عکس آپلود کنن.

    Google Dance (رقص گوگل)

    اصطلاحی که از سال ۲۰۰۲ برای دوره زمانی پرنوسان که طی اون گوگل فهرست جستجوی خودش رو تقریبا هر ماه به‌روز میکرد، استفاده میشد.

    Google Hummingbird (الگوریتم مرغ مگس‌خوار گوگل)

    یه الگوریتم جستجوی گوگل که رسما تو سپتامبر ۲۰۱۳ بعد از اینکه یه ماه در حال استفاده بود، اعلام شد. هدف مرغ مگس‌خوار درک بهتر زمینه کامل جستجوها (یعنی جستجوی معنایی) به جای کلمات کلیدی خاص، برای ارائه نتایج بهتر بود.

    Google Looker Studio

    یه ابزار آنلاین رایگان که به شما اجازه میده گزارش‌های بصری رو با استفاده از داده‌های منابع مختلف سفارشی‌سازی کنید.

    Google RankBrain

    یک جزء یادگیری ماشین از الگوریتم اصلی گوگل که رتبه‌بندی رو با ترویج مرتبط‌ترین و مفیدترین نتایج تنظیم میکنه.

    Google Sandbox (سندباکس گوگل)

    یه «دوره انتظار» نظری و مورد بحث (اما هرگز توسط گوگل تایید نشده) که مانع از این میشه که وب‌سایت‌های جدید از مزیت کامل تلاش‌های بهینه‌سازی خودشون بهره‌مند بشن. به طور معمول، این اثر بیشتر در مورد سایت‌های جدیدی که کلمات کلیدی رقابتی رو هدف قرار میدن، دیده میشه.

    Google Search Console (کنسول جستجوی گوگل)

    که قبلا Google Webmaster Tools نام داشت، یه سرویس آنلاین رایگانه که توسط گوگل برای نظارت بر وضعیت ایندکس و خزش یه وب‌سایت ارائه میشه. این ابزار ویژگی‌های مفیدی از جمله توانایی نظارت بر سایت‌ها برای خطاهای ایندکس و سرعت سایت رو ارائه میده.

    Google Search Quality Rater Guidelines (دستورالعمل‌های ارزیابان کیفیت جستجوی گوگل)

    گوگل از یه سند راهنما برای ارزیابان کیفیت داخلی خودش برای ارجاع موقع بررسی دستی وب‌سایت‌ها استفاده میکنه. سند داخلی اصلی محرمانه بود و بعدا گوگل این دستورالعمل‌ها رو به صورت آنلاین منتشر کرد که هر از چند گاهی به‌روز میشه. اطلاعات تو این سند، راهنمایی برای ایجاد محتوای با کیفیته و مفهوم E-A-T رو مطرح میکنه.

    Google Trends (گوگل ترندز)

    یه وب‌سایت که میتونی تو اون، داده‌های تصویری در مورد آخرین روندهای جستجو، داستان‌ها و موضوعات رو بررسی کنی.

    Google Webmaster Guidelines (دستورالعمل‌های وبمستر گوگل)

    راهنمایی گوگل در مورد شیوه‌های خوب بهینه‌سازی وب‌سایت، و همچنین شیوه‌های «غیرقانونی» که میتونن منجر به اقدام دستی بشن. به طور خلاصه:

    • وب‌سایت‌ها و صفحات وب منحصر به فرد، با ارزش و جذاب برای کاربرا بسازید، نه برای موتورهای جستجو.
    • از ترفندها و تکنیک‌هایی که کاربرا رو فریب میدن و فقط برای بهبود رتبه‌های جستجو در نظر گرفته شدن، خودداری کنید.

    .gov Links (لینک‌های .gov)

    سازمان‌های دولتی دامنه سطح بالای (TLD) .gov دارن. برای مثال، usa.gov. لینکی از چنین سایتی به عنوان لینک .gov شناخته میشه. فقط نهادهای دولتی تو آمریکا میتونن برای TLD .gov درخواست بدن و اون رو دریافت کنن. کشورهای دیگه نسخه مخصوص کشور خودشون رو دارن، مثل .gov.uk. دامنه‌های TLD دولتی به شدت تنظیم شده و منابع اطلاعاتی قابل اعتمادی هستن. به همین دلیل، لینکی از یه دامنه .gov ارزش قابل توجهی داره.

    Gray Hat (کلاه خاکستری)

    یه منطقه «خاکستری» فرضی بین تکنیک‌هایی که به دستورالعمل‌های وبمستر گوگل پایبند هستن، اما بعدا عنصری رو اضافه میکنن که قوانین رو یه کم دور میزنه.

    Guest Blogging (وبلاگ‌نویسی مهمان)

    یه تاکتیک محبوب لینک‌سازی که شامل توسعه محتوا برای وب‌سایت‌های دیگه در ازای یه بک‌لینک به صفحات خودتون میشه. بهش Guest Posting هم میگن.

    ل

    Landing Page (صفحه فرود)

    این اصطلاح به دو مورد اشاره داره:

    • هر صفحه وبی که یه بازدیدکننده میتونه بهش بره.
    • یه صفحه وب مستقل که برای جذب سرنخ یا ایجاد تبدیل طراحی شده.

    Large Language Models (LLMs) (مدل‌های زبان بزرگ)

    LLMها الگوریتم‌های هوش مصنوعی هستن که قادر به درک، پردازش و تولید زبان انسانی هستن. LLMها که روی مجموعه‌های عظیمی از داده‌ها آموزش دیدن (مثل GPT)، میتونن وظایف پردازش زبان طبیعی (NLP) رو، از ترجمه تا تولید محتوا، انجام بدن. تو سئو، میشه از LLMها برای کمک به تحقیق کلمات کلیدی، تولید محتوا و سایر فعالیت‌هایی که میتونن به بهینه‌سازی صفحات وب کمک کنن، استفاده کرد.

    Latent Semantic Analysis (LSA) (تحلیل معنایی پنهان)

    یه تکنیک تو پردازش زبان طبیعی و زبان‌شناسی محاسباتی که برای تحلیل روابط بین مجموعه‌ای از اسناد و عباراتی که دارن، استفاده میشه.

    Latent Semantic Indexing (LSI) (ایندکس‌گذاری معنایی پنهان)

    یه روش بازیابی اطلاعاته که برای کمک به موتورهای جستجو برای شناسایی زمینه صحیح یه کلمه طراحی شده. LSI امروزه نقش مفیدی تو سئو نداره. کلمات کلیدی LSI عباراتی هستن که از نظر مفهومی مشابهن و موتورهای جستجو برای درک عمیق محتوای یه صفحه وب ازشون استفاده میکنن.

    Lead (سرنخ)

    سرنخ شخصی است که ممکنه به محصولات و/یا خدمات شما علاقه‌مند باشه یا نباشه. یه سرنخ به طور داوطلبانه آدرس ایمیل خودش (و معمولا سایر اطلاعات شخصی یا تماسی) رو در ازای چیزی که از وب‌سایت با ارزش میدونه، به اشتراک میذاره.

    Link (لینک)

    لینک یه اتصاله بین دو وب‌سایت که با استفاده از کد HTML ساخته میشه. یه لینک به کاربرا امکان میده به وب‌سایت‌ها، شبکه‌های اجتماعی و اپلیکیشن‌ها برن. لینک‌ها نقش حیاتی تو نحوه ارزیابی و رتبه‌بندی وب‌سایت‌ها توسط موتورهای جستجو دارن. بهش Backlink هم میگن.

    Link Bait (طعمه لینک)

    محتوای عمدا تحریک‌آمیز که برای جلب توجه آدما و جذب لینک از وب‌سایت‌های دیگه در نظر گرفته شده.

    Link Building (لینک‌سازی)

    فرایندیه که برای واداشتن وب‌سایت‌های معتبر و مرتبط دیگه به لینک دادن به وب‌سایت شما طراحی شده تا به بهبود رتبه و دیده شدن تو جستجوی ارگانیک شما کمک کنه. لینک‌سازی میتونه از طریق این روش‌ها انجام بشه:

    • ارتباط با رسانه‌ها، وبلاگ‌نویس‌ها، اینفلوئنسرها و وبمسترها.
    • جذب لینک‌های تحریریه به طور طبیعی، با انتشار انواع مختلف محتوای با کیفیت بالا یا جنجالی.
    • پرداخت پول برای اونها. برای مثال، میتونی از طریق محتوای حمایت شده، نقدهای پولی یا پرداخت برای یه نوع خاص از لینک برای ظاهر شدن تو وب‌سایت دیگه، لینک به دست بیاری.
    • ایجاد مشارکت.
    • به صورت دستی. برای مثال، املاک مختلفی رو که مدیریت میکنی یا صاحبشون هستی، به هم لینک بدی یا سایتت رو به دایرکتوری‌های آنلاین یا سایت‌های نقد و بررسی اضافه کنی.

    Link Equity (ارزش لینک)

    ارزش لینک‌های ورودی، از نظر مرتبط بودن، اعتبار و اعتماد. بهش Link Juice هم میگن و این ایده رو مطرح میکنه که یه صفحه لینک‌دهنده میتونه قدرت رتبه‌بندی خودش رو به وب‌سایتی که بهش لینک میده، منتقل کنه.

    Link Farm (مزرعه لینک)

    وقتی یه گروه از وب‌سایت‌ها به همدیگه لینک میدن، معمولا با استفاده از برنامه‌های خودکار، به امید افزایش مصنوعی رتبه‌های جستجو. این یه تاکتیک اسپمه. بهش Link Network، Blog Network یا Private Blog Network (PBN) هم میگن.

    Link Juice (آب لینک)

    اصطلاحیه که نباید تو جمع یا آنلاین ازش استفاده کنی. به جای اون از Authority یا PageRank استفاده میشه. این اصطلاح به ارزش یا اعتباری اشاره داره که از یه صفحه یا سایت به دیگری منتقل میشه.

    Link Profile (پروفایل لینک)

    هر نوع لینکی که به یه وب‌سایت خاص اشاره میکنه. کیفیت پروفایل لینک یه وب‌سایت میتونه خیلی متفاوت باشه، بسته به اینکه چطور به دست اومدن و از چه انکر تکستی استفاده شده.

    Link Stability (پایداری لینک)

    وقتی یه لینک برای یه دوره زمانی به طور مداوم روی یه صفحه باقی میمونه بدون اینکه تغییر یا به‌روز بشه. گوگل برای یه پتنت درخواست داده که به تغییر لینک و اینکه لینک‌های یه صفحه چقدر تغییر میکنن، اشاره کرده، اما هیچ مدرکی وجود نداره که پایداری لینک تاثیری روی رتبه‌بندی داشته باشه.

    Link Velocity (سرعت لینک)

    به سرعت (یا کندی) جمع‌آوری لینک توسط یه وب‌سایت گفته میشه. افزایش ناگهانی سرعت لینک میتونه به طور بالقوه نشونه اسپم باشه، یا میتونه به خاطر بازاریابی ویروسی یا انجام کاری خبرساز باشه.

    Links, Internal (لینک‌های داخلی)

    لینک‌هایی که از یه صفحه به صفحه دیگه‌ای تو همون دامنه میرن. لینک‌های داخلی میتونن تو یه صفحه، تو منوی ناوبری اصلی یا تو نقشه سایت درج بشن. لینک‌های داخلی میتونن برای نشون دادن اهمیت یه صفحه تو یه سایت استفاده بشن. این لینک‌ها مهمن چون ربات‌های گوگل‌بات لینک‌های داخلی رو برای ناوبری سایت شما و پیدا کردن صفحات جدید دنبال میکنن.

    Links, NoFollow (لینک‌های نوفالو)

    تو یه هایپرلینک، rel="nofollow" یه ویژگیه که به لینک اضافه میشه تا نشون بده که شما هیچ اعتبار یا تاییدی به صفحه‌ای که بهش لینک میدی، منتقل نمیکنی. نوفالو در ابتدا توسط گوگل برای محدود کردن اسپم کامنت معرفی شد و همه لینک‌های نوفالو رو بی‌ارزش میکرد، اما از اون موقع نحوه کار این دستورالعمل رو تغییر داده. نوفالو الان به عنوان یه «اشاره» (hint) در نظر گرفته میشه که یعنی ممکنه هنوز از بعضی اطلاعات در مورد الگوهای لینک‌سازی استفاده کنن، اما به طور کلی، هنوز میپذیرن که هیچ وزنی نباید از طریق لینک منتقل بشه.

    Links, Outbound or External (لینک‌های خروجی یا خارجی)

    یه لینک خارجی یا خروجی، لینکی از یه صفحه تو دامنه X به یه صفحه تو دامنه Y هست. برای مثال، لینکی از searchenginejournal.com/google به google.com/about-us. تصور میشد که لینک‌های خارجی به سایت‌های معتبر به یه صفحه ارزش اضافه میکنن چون نشون میده که اون صفحه به خوبی تحقیق شده و از منابع قابل اعتماد استفاده میکنه. لینک‌های خارجی تاثیری روی رتبه‌بندی ندارن و فقط باید برای ارجاع به منابع در صورت لزوم استفاده بشن.

    Listing Management (مدیریت لیستینگ)

    فرایند اطمینان از اینکه اطلاعات کسب‌وکار محلی شما در دایرکتوری‌های کلیدی دقیق و سازگار باشه.

    Local SEO (سئوی محلی)

    فرایند تقویت حضور آنلاین یه کسب‌وکار برای بهبود دیده شدن تو نتایج جستجوی محلی و نقشه‌ها.

    Log File (فایل گزارش)

    فایلی که اطلاعات کاربرا، مثل آدرس‌های IP، نوع مرورگر، ارائه‌دهنده خدمات اینترنت (ISP)، تاریخ/زمان، صفحات ارجاع/خروج و تعداد کلیک‌ها رو ثبت میکنه.

    Log File Analysis (تحلیل فایل گزارش)

    فرایند بررسی داده‌های موجود تو یه فایل گزارش برای شناسایی روندها، مدیریت سایت، ردیابی حرکت کاربر در سایت، جمع‌آوری اطلاعات دموگرافیک و درک نحوه خزش ربات‌های جستجو در وب‌سایت.

    Long-Tail Keyword (کلمه کلیدی دم‌دراز)

    کلمات کلیدی دم‌دراز عبارات بسیار خاص چند کلمه‌ای هستن که اغلب قصد خرید بالاتری رو نشون میدن. اینها کلمات کلیدی کمتر محبوبی هستن که حجم جستجوی پایینی دارن و معمولا رتبه‌بندی براشون راحت‌تره.

    م

    Machine Learning (یادگیری ماشین)

    یادگیری ماشین زیرمجموعه‌ای از هوش مصنوعیه که تو اون، یه سیستم از داده‌ها برای یادگیری و تنظیم یه فرایند پیچیده بدون دخالت انسان استفاده میکنه.

    Manual Action (اقدام دستی)

    اقدام دستی اصطلاح گوگل برای جریمه است. گوگل بعد از اینکه یه بازبین انسانی (یعنی یه کارمند گوگل) به صورت دستی یه وب‌سایت رو بررسی میکنه تا تایید کنه که آیا با دستورالعمل‌های وبمستر گوگل مطابقت نداره، روی اون وب‌سایت اقدام دستی انجام میده. وب‌سایت‌های جریمه شده میتونن تنزل رتبه پیدا کنن یا به طور کامل از نتایج جستجو حذف بشن.

    Map Rank Tracker (ردیاب رتبه نقشه)

    ابزاری در Semrush Local که رتبه‌بندی کسب‌وکارهای محلی را در نقشه گوگل ردیابی میکنه.

    Market Consolidation (ادغام بازار)

    معیاری از ترافیک وب‌سایت‌ها در رابطه با بازاری که در آن قرار دارند و شاخصی از میزان رقابت بین آنهاست.

    Match Score (امتیاز تطابق)

    معیاری که نشان میدهد کدام دامنه‌ها بهترین فرصت‌های مشارکت یا تبلیغات را ارائه میدهند.

    Meta Description (متا دیسکریپشن)

    متا دیسکریپشن یه تگه که میشه به بخش «head» یه سند HTML اضافه کرد. این تگ به عنوان توضیحی از محتوای یه صفحه وب عمل میکنه. این محتوا تو الگوریتم‌های رتبه‌بندی استفاده نمیشه، اما اغلب به عنوان «اسنیپت» که تو نتایج جستجو ظاهر میشه، نمایش داده میشه. توضیحات دقیق و جذاب میتونن نرخ کلیک ارگانیک رو افزایش بدن. طول این توضیحات معمولا کمتر از ۱۶۰ کاراکتره.

    Meta Keywords (متا کیوردز)

    یه تگه که میشه به بخش «head» یه سند HTML اضافه کرد. اضافه کردن یه عالمه کلمه کلیدی اینجا به رتبه‌بندی شما کمکی نمیکنه – الگوریتم‌های موتور جستجو سال‌هاست که این تگ رو به خاطر سوءاستفاده (به شکل پر کردن کلمات کلیدی) برای رتبه‌بندی نادیده گرفتن.

    Meta Tags (متا تگ‌ها)

    اطلاعاتی که تو کد منبع HTML یه صفحه وب ظاهر میشن تا محتویاتش رو به موتورهای جستجو توصیف کنن. تگ عنوان و متا دیسکریپشن رایج‌ترین انواع متا تگ‌ها تو سئو هستن.

    Meta Title (متا تایتل)

    یه متا تگ و بخش مهمی از بهینه‌سازی وب‌سایته و از تیتر روی خود صفحه متمایزه. این تگ به عنوان یه برچسب اسم برای صفحه وب عمل میکنه. عنوان تو تب مرورگر شما نمایش داده میشه. متا تایتل‌ها توسط ربات‌های موتور جستجو هم خونده میشن.

    Metric (متریک)

    روشی برای اندازه‌گیری فعالیت و عملکرد برای ارزیابی موفقیت (یا عدم موفقیت) یه ابتکار سئو.

    Microdata (میکرودیتا)

    یه نوع مشخصاته که برای تودرتو کردن متادیتا در محتوای موجود روی صفحه که تو محتوای HTML تعبیه شده، استفاده میشه تا خوانایی رو بهبود ببخشه و عناصر یه صفحه وب رو تحلیل کنه.

    Minification (کوچک‌سازی)

    فرایند به حداقل رسوندن کد و نشانه‌گذاری در اسناد و اسکریپت‌های وب شما. در نتیجه کوچک‌سازی، وب‌سایت‌ها میتونن زمان بارگذاری صفحه سریع‌تری داشته باشن و تجربه کاربری خودشون رو بهبود ببخشن.

    Mirror Site (سایت آینه‌ای)

    یه سایت یکسان در یه آدرس متفاوت.

    Mobile-first Indexing (ایندکس‌گذاری اول-موبایل)

    این به این معنیه که گوگل در درجه اول از نسخه موبایل یه صفحه وب برای ایندکس‌گذاری و رتبه‌بندی استفاده میکنه. در گذشته، دسکتاپ اولویت داشت. در سال ۲۰۱۸، ۵۸ درصد از بازدیدهای سایت از دستگاه‌های موبایل بوده.

    ن

    Natural Link (لینک طبیعی)

    به لینکی گفته میشه که یه وب‌سایت بدون اینکه گیرنده درخواست یا پولی برای اون پرداخت کنه، به وب‌سایت دیگه‌ای میده. بهش Editorial Link هم میگن.

    Negative SEO (سئوی منفی)

    یه عمل نادر اما مخربه که تو اون از تکنیک‌های وب‌اسپم برای آسیب رساندن به رتبه‌های جستجوی یه وب‌سایت دیگه، معمولا یه رقیب، استفاده میشه.

    Niche (نیچ)

    یه بازار یا حوزه علاقه خاص که شامل یه گروه کوچیک از آدم‌های بسیار پرشوره.

    Noarchive Tag (تگ نوآرشیو)

    یه متا تگ که به موتورهای جستجو میگه یه کپی کش شده از صفحه شما رو ذخیره نکنن.

    Nofollow Attribute (ویژگی نوفالو)

    یه متا تگ که به موتورهای جستجو میگه یه لینک خروجی خاص رو دنبال نکنن. این کار زمانی انجام میشه که یه وب‌سایت نمیخواد اعتبار رو به یه صفحه وب دیگه منتقل کنه یا به خاطر اینکه یه لینک پولیه. ویژگی نوفالو به این شکل به نظر میرسه: <a href="http://www.example.com/" rel="nofollow">Anchor text goes here</a>

    Noindex Tag (تگ نوایندکس)

    یه متا تگ که به موتورهای جستجو میگه یه صفحه وب خاص رو تو فهرستش ایندکس نکنن.

    Nosnippet Tag (تگ نواسنیپت)

    یه متا تگ که به موتورهای جستجو میگه یه توضیحات رو با لیست شما نشون ندن.

    (not provided)

    بعد از اینکه موتورهای جستجو تو سال ۲۰۱۱ به جستجوی امن روی آوردن، داده‌های کلمات کلیدی از گوگل آنالیتیکس حذف و با «(not provided)» جایگزین شدن – و این باعث شد که دیگه نشه فهمید کدوم جستجوها مسئول پیدا کردن یه وب‌سایت توسط بازدیدکننده‌ها بودن.

    NLU (درک زبان طبیعی)

    مخفف Natural Language Understanding. این در مورد قادر ساختن کامپیوترها به درک و تفسیر زبان انسانی همونطور که صحبت یا نوشته میشه، با تشخیص ظرایف، قصد و احساسات پشت کلمات هست.

    و

    Vanity URL (URL خودنما)

    یه URL به یاد ماندنی، توصیفی و با تلفظ آسان که معمولا برای ریدایرکت کردن URLها از یه سایت به دیگری استفاده میشه.

    Vertical Search (جستجوی عمودی)

    یه نوع جستجوی تخصصیه که تمرکزش فقط روی یه موضوع، نوع محتوا یا رسانه خاصه. برای مثال، یوتیوب (ویدیو)، آمازون (خرید)، کایاک (سفر)، یلپ (نقدهای کسب‌وکار).

    Virtual Assistant (دستیار مجازی)

    یه رباته که از پردازش زبان طبیعی برای انجام وظایف، مثل انجام جستجوهای وب، استفاده میکنه. برای مثال، سیری اپل یا کورتانای مایکروسافت.

    Visibility (دیده شدن)

    برجستگی و موقعیت‌هایی که یه وب‌سایت در نتایج جستجوی ارگانیک اشغال میکنه.

    Voice Search (جستجوی صوتی)

    یه نوع تکنولوژی فعال‌شونده با صدا که به کاربرا اجازه میده با یه دستگاه (معمولا یه گوشی هوشمند) صحبت کنن تا سوال بپرسن یا یه جستجوی آنلاین انجام بدن.

    Volatility (نوسان)

    معیاری که میزان کلی تغییرات در نتایج موتور جستجو را اندازه‌گیری میکنه.

    ه

    Heading (سرتیتر)

    تگ‌های سرتیتر HTML (H1-H6) محتوا رو بر اساس اهمیت به بخش‌هایی تقسیم میکنن، که H1 مهم‌ترین و H6 کم‌اهمیت‌ترینه. تگ‌های سرتیتر باید به طور طبیعی استفاده بشن و در صورت لزوم کلمات کلیدی هدف شما رو در بر بگیرن، چون این کار ممکنه یه مزیت کوچیک سئو داشته باشه.

    Headline (تیتر)

    یه تگ H1.

    Head Term (عبارت اصلی)

    یه کلمه کلیدی محبوب با حجم جستجوی بالا که معمولا رتبه‌بندی براش سخته. بهش Head Keyword یا Short-Tail هم میگن.

    Heat Map (نقشه حرارتی)

    نقشه‌ای که داده‌ها رو نشون میده و از رنگ برای نشون دادن مناطق با بیشترین استفاده یا احتمال استفاده میکنه.

    Hidden Text (متن پنهان)

    هر متنی که توسط کاربر قابل مشاهده نیست و برای دستکاری رتبه‌های جستجو با پر کردن صفحات وب با کلمات کلیدی و متن غنی از محتوا در نظر گرفته شده. این تکنیک برخلاف دستورالعمل‌های وبمستر گوگل هست و میتونه منجر به یه اقدام دستی بشه. برای مثال، اضافه کردن متنی که:

    • خیلی کوچیکه که خونده بشه.
    • همرنگ پس‌زمینه است.
    • از CSS برای خارج کردن متن از صفحه استفاده میشه.

    Hilltop Algorithm (الگوریتم هیل‌تاپ)

    این الگوریتم که از الگوریتم HITS تاثیر گرفته و تو سال ۲۰۰۳ به الگوریتم گوگل اضافه شد، وضعیت «متخصص» رو به وب‌سایت‌ها یا صفحات وب خاصی که در مورد یه موضوع خاص منتشر شدن و همچنین به صفحات غیروابسته در مورد اون موضوع لینک میدن، اختصاص میده.

    HITS Algorithm

    مخفف Hyperlink-Induced Topic Search، یه الگوریتم تحلیل لینکه که یه ارزش رو نه تنها بر اساس محتوا و لینک‌های ورودی (authorities)، بلکه بر اساس لینک‌های خروجی (hubs) هم ارزیابی میکنه.

    Homepage (صفحه اصلی)

    صفحه پیش‌فرض یا مقدماتی یه وب‌سایت.

    .htaccess File (فایل .htaccess)

    یه فایل پیکربندی سروره که میشه برای بازنویسی و ریدایرکت کردن URLها ازش استفاده کرد.

    HTML

    مخفف Hypertext Markup Language. تگ‌های HTML عناصر کد خاصی هستن که میشه برای بهبود اثربخشی سئو برای صفحات وب و وب‌سایت‌ها ازشون استفاده کرد.

    HTTP

    Hypertext Transfer Protocol نحوه انتقال داده‌ها از یه سرور کامپیوتری به یه مرورگر وبه.

    HTTPS

    Hypertext Transfer Protocol Secure از یه لایه سوکت‌های امن (SSL) برای رمزگذاری داده‌های منتقل شده بین یه وب‌سایت و مرورگر وب استفاده میکنه. HTTPS یه فاکتور رتبه‌بندی جزئی گوگله.

    Hub Page (صفحه هاب)

    یه منبع مرکزی معتبر (مثلا یه صفحه یا مقاله)، که به یه موضوع خاص (کلمه کلیدی) اختصاص داده شده، که به طور مداوم به‌روز میشه و بهش لینک داده میشه و همچنین به صفحات وب مرتبط با موضوع لینک میده.

    ی

    Yahoo (یاهو)

    یاهو تو آوریل ۱۹۹۴ متولد شد و تو دهه ۹۰ یه موتور جستجو و پورتال فوق‌العاده محبوب بود. جستجوی یاهو بیشتر توسط انسان‌ها انجام میشد، حداقل تا ژوئن ۲۰۰۰ که یه موتور جستجوی ناشناخته به اسم گوگل شروع به تامین نتایج جستجوی ارگانیک یاهو کرد. این قرارداد تا سال ۲۰۰۴ ادامه داشت، که یاهو شروع به استفاده از تکنولوژی جستجوی خودش کرد. از سال ۲۰۱۰، نتایج جستجوی ارگانیک یاهو توسط موتور جستجوی مایکروسافت، بینگ، تامین میشه.

    Yandex (یاندکس)

    محبوب‌ترین موتور جستجو تو روسیه، یاندکس تو ۲۳ سپتامبر ۱۹۹۷ توسط آرکادی ولوژ و ایلیا سگالوویچ تاسیس شد.