بررسی کامل الگوریتمهای گوگل از شروع تا 2024
در این مقاله میخوانید
شاید بارها نام الگوریتمهای گوگل را شنیده باشید. به خصوص برای متخصصین سئو، این قوانین چارچوب اصلی کاری هستند. در واقع این قوانین تعیینکننده استراتژیهای محتوا و روند کاری سئو هستند. این الگوریتمها چه هستند، هر کدام چه اثری روی رتبهی گوگل میگذارد و چطور میتوانیم از آخرین آپدیت های گوگل باخبر شویم، موضوعاتی است که میخواهیم در این مطلب از بخش آموزش سئو بلاگ پارسپک در مورد آن توضیح دهیم.
الگوریتم گوگل به چه معناست؟
الگوریتم های گوگل (Google Algorithm) به مجموعه قوانینی گفته میشود که این موتور جستجو برای جریمه کردن وبسایتهای متخلف و همچنین نحوهی امتیازدهی به وبسایتها در نظر میگیرد. به همین دلیل است که اکثر این الگوریتمها، تشویقی نیستند؛ بلکه اگر آنها را رعایت نکنید، با کاهش رتبه در گوگل مواجه میشوید.
برای مطالعه بیشتر در زمینه سئو، این مقاله را بخوانید:
لیست الگوریتم های گوگل
اولین الگوریتم های گوگل در سال ۲۰۰۰ معرفی شد، یعنی زمانیکه گوگل برای اولین بار از نوار ابزار (Toolbar) خود رونمایی کرد. اما بسیاری از الگوریتمهای قدیمی گوگل، تا الان یا آپدیت شدهاند و یا بهطور کلی تغییر کردهاند. در این قسمت، لیست الگوریتمهای فعال گوگل به همراه کاربردشان در بهینهسازی موتورهای جستجو (Search Engine Optimization)، ارائه شدهاست:
۱- الگوریتم پیج رنک (Google Pagerank Algorithm)
پیج رنک یکی از اولین الگوریتم های گوگل است که لری پیج (Larry Page) و سرگئی برین (Sergey Brin) در سال ۱۹۹۸ راهاندازی کردند. هدف اصلی این الگوریتم، رتبهبندی صفحات مختلف بر اساس میزان اهمیت آنها بود.
در این الگوریتم، هر صفحه بهصورت یک گره (Node) در شبکه در نظر گرفته میشود و لینکهای میان صفحات، مانند مسیرهایی هستند که این گرهها را به هم متصل میکنند. ایدهی اصلی الگوریتم Pagerank این است که هر چه تعداد لینکهای ورودی به یک صفحه بیشتر باشد و از طرف دیگر، این لینکها از صفحات معتبری دریافت شده باشند، آن صفحه اعتبار بیشتری دریافت میکند.
همین الگوریتم باعث شد تا سئوکاران کلاه سیاه و کلاه خاکستری تصمیم بگیرند تا از وب سایتهای معتبر، بک لینک خریداری کنند که البته همانطور که در ادامه و در توضیح الگوریتم پنگوئن توضیح داده شده است، گوگل جلوی این کار را هم گرفت.
به منظور مطالعه بیشتر در زمینه سئو کلاه سیاه و کلاه سفید، مقاله زیر را مطالعه کنید:
۲- الگوریتم رقص گوگل (Google Dance Algorithm)
الگوریتم رقص گوگل نیز یکی دیگر از الگوریتم های گوگل است که عملکرد جالبی دارد. عملکرد این الگوریتم که در اوایل دههی ۲۰۰۰ معرفی شد، به این ترتیب است که وقتی گوگل صفحات جدید وب سایتها را ایندکس میکند و یا تغییراتی در الگوریتم خود میدهد، ممکن است نتایج جستجو تغییر کند. مثلاً ممکن است یک وب سایت در یک روز در رتبههای بالا قرار گیرد اما در روزهای بعدی به صفحات بعدی منتقل شود.
الگوریتم رقص گوگل با این هدف معرفی شدهاست که در کنار همهی الگوریتمهای دیگر، این خود کاربران باشند که مشخص کنند محتوای کدام وبسایت برای آنها ارزشمندتر بوده است. کاری که گوگل انجام میدهد این است که با بازی کردن با رتبههای صفحات مختلف، دادههای متفاوتی را از کاربران دریافت کرده و در نهایت به این نتیجه میرسد که کدام صفحه باید در رتبههای بالاتر قرار بگیرد.
۳- الگوریتم هیلتاپ (Google Hilltop Algorithm)
این الگوریتم در سال ۲۰۰۳ و با هدف بهبود نتایج جستجو از طریق شناسایی وب سایتهای معتبر و مرتبط در یک حوزهی خاص بود. Hilltop به جای بررسی تمامی وبسایتها، بر صفحات تخصصی (Expert Pages) تمرکز میکند. این صفحات معمولاً توسط منابع معتبر ایجاد شدهاند و به سایتهای مرتبط با موضوع خود لینک میدهند.
این الگوریتم به دنبال شناسایی سایتهایی است که بهعنوان مرجع در یک موضوع خاص شناخته میشوند و لینکهای خروجی آنها نشاندهنده ارتباط و کیفیت سایتهای دیگر است. برای مثال، اگر یک وبسایت دانشگاهی به مقالات علمی لینک دهد، آن لینکها در الگوریتم Hilltop بهعنوان معیار اعتبار در نظر گرفته میشوند.
۴- الگوریتم گوگل سندباکس (Google Sandbox Algorithm)
یکی از الگوریتم های گوگل که وب سایتهای تازه راهاندازی شده بهشدت با آن مشکل دارند. این الگوریتم که در سال ۲۰۰۴ معرفی شده است، به محدودیتهای اولیهای اشاره دارد که روی وب سایتهای تازه تأسیس اعمال میشود.
زمانی که یک وب سایت تازه راهاندازی میشود، ممکن است در همان ابتدا محتوای باکیفیت و کاملی تولید کند و حتی بهینهسازی مناسبی هم انجام دهد. اما گوگل بر اساس الگوریتم سندباکس ممکن است تصمیم بگیرد تا محتواهای آن را بهصورت موقت در رتبههای بالایی نشان ندهد. این فرایند به گوگل کمک میکند تا کیفیت و اصالت وب سایت را به مرور زمان ارزیابی کند.
۵- الگوریتم کافئین (Google Caffeine Algorithm)
کافئین یکی دیگر از مهمترین الگوریتم های گوگل است که در سال ۲۰۱۰ معرفی شد. هدف این الگوریتم، افزایش سرعت ایندکسگذاری محتواها در موتور جستجوی گوگل بود. در واقع گوگل این الگوریتم را برای خودش طراحی کرد تا بتواند ایندکس کردن صفحات را که تا پیش از این بهصورت لایهبندی شده و خیلی کند انجام میشد، حالا بهصورت خیلی سریعتری انجام دهد.
به لطف الگوریتم کافئین، حالا دیگر گوگل این قابلیت را دارد که محتوای جدید را تقریباً بلافاصله پس از انتشار، ایندکس کند. با همین ویژگی، محتواهای جدید و همچنین محتواهای بهروزرسانی شده، اولویت بیشتری پیدا کردند؛ موضوعی که در سال بعد، با الگوریتم تازگی محتوا، تکمیلتر شد.
۶- الگوریتم تازگی محتوا (Google Freshness Algorithm)
Google Freshness الگوریتمی است که در سال ۲۰۱۱ معرفی شد و هدف آن، ارائهی محتوای بهروزتر و مرتبطتر به کاربران است. این الگوریتم بهویژه برای جستجوهایی طراحی شده است که نیاز به ارائهی اطلاعات دقیق و آپدیت دارند.
بهعنوان مثال موضوعات حوزهی اخبار روز، بررسی محصولات جدید و همچنین رویدادهای ورزشی، نیاز به آپدیت مداوم دارند. این الگوریتم باعث شد تا کاربران همیشه به اطلاعات و محتواهای دست اول دسترسی داشته باشند.
۷- الگوریتم پاندا (Panda Algorithm)
این الگوریتم در سال ۲۰۱۱ و با هدف کاهش رتبهی وبسایتهای با محتوای کم کیفیت و کپیشده، معرفی شد. این الگوریتم میکوشد تا با رویکردهای زیر، بهترین نتیجه را در جستجوی گوگل (Google Search)، به او نشان دهد:
- تاکید بر تولید محتوای باکیفیت
- جلوگیری از کپی کردن محتوا از وبسایتهای دیگر
- استفاده از محتوای کاربردی و جذاب برای کاربران
۸- الگوریتم ونیز (Google Venice Algorithm)
هدف اصلی الگوریتم ونیز که در سال ۲۰۱۲ معرفی شد، ارائهی مرتبطترین و بهترین نتیجهها بر اساس نتایج جستجوی محلی (Local) کاربران بود. تا قبل از این الگوریتم، گوگل نتایج جستجو را عمدتاً بر اساس کلمات کلیدی و محتوای صفحات رتبهبندی میکرد و توجه چندانی به موقعیت جغرافیایی کاربر نداشت. اما با معرفی این الگوریتم، نتایجی به کاربر نشان داده میشود که به موقعیت مکانی آنها نزدیکتر است.
الگوریتم ونیز که دو سال بعد با الگوریتم کبوتر کاملتر شد، آغازگر حرکت جدی گوگل برای اهمیت دادن به نتایج سئو محلی (Local SEO) است و باعث شد تا تغییرات زیادی در نتایج گوگل ایجاد شود.
۹- الگوریتم دزد دریایی (Google Pirate Algorithm)
دزد دریایی یکی از الگوریتم های گوگل است که هدف آن مبارزه با نقض قانون کپی رایت (Copyright) است و در سال ۲۰۱۲ معرفی شد. این الگوریتم بهصورت ویژه، وب سایتهایی که این قانون را نقض کرده بودند و محتوای کپی شده و دارای حق کپی رایت داشتند را جریمه میکند.
نحوهی عملکرد این الگوریتم که بر اساس قانون DMCA آمریکا کار میکند، به این صورت است که گوگل درخواست حذف محتواهای دارای حق کپی رایت را از صاحبان محتوا دریافت میکند. در صورتیکه تعداد این گزارشها از یک وب سایت زیاد شود، تحت تأثیر این الگوریتم قرار گرفته و دچار کاهش رتبه میشود.
۱۰- الگوریتم EMD (Exact Match Domain(
الگوریتم EMD نیز در سال ۲۰۱۲ معرفی شد و هدف آن، کاهش رتبهی وب سایتهایی بود که بهخاطر نام دامنهی دقیقاً مشابه با کلمات کلیدی جستجو شده، رتبههای بالا را کسب کرده بودند اما محتوای باکیفیتی ارائه نکرده بودند.
تا قبل از این الگوریتم، وب سایتی با دامنهی Buyshoes میتوانست حتی با محتوای بدون کیفیت، نسبت به وب سایت با محتوای مناسب، نتیجهی بهترین در جستجوی خرید کفش بهدست آورد و این با اصول و قوانین گوگل سازگاری نداشت.
با معرفی این الگوریتم، علاوه بر اینکه کاربران به نتایج بهتری دست پیدا میکردند و وب سایتها هم مجبور بودند تا برای کسب رتبههای بهتر، محتواهای مفیدتری تولید کنند، همچنین باعث شد تا سایتهای اسپم و سوء استفاده کننده از کلمات کلیدی نیز حذف شوند.
۱۱- الگوریتم پنگوئن (Penguin Algorithm)
بکلینک (Backlink) یکی از راهکارهایی است که گوگل میتواند با استفاده از آن، به وبسایتها اعتماد کند. هنگامی که این نکته مشخص شد، بعضی از وبسایتها تلاش کردند تا با خرید بک لینکهای بدون کیفیت، این اعتبار را بهصورت غیرواقعی از گوگل دریافت کنند و به رتبههای برتر گوگل دست پیدا کنند.
الگوریتم پنگوئن یکی از الگوریتم های گوگل است که در سال ۲۰۱۲ که برای مقابله با این موضوع معرفی شد. این الگوریتم سایتهایی را که از روشهای غیرقانونی برای دریافت بکلینک استفاده میکنند، شناسایی و جریمه میکند. اهداف این الگوریتم عبارتاند از:
- تمرکز بر بکلینکهای طبیعی و باکیفیت
- حذف لینکهای خریداری شده یا بیکیفیت
- اجتناب از انجام تکنیکهای سئو کلاه سیاه در بک لینکسازی
۱۲- الگوریتم پیج لیاوت (Page Layout Algorithm)
الگوریتم Page Layout در سال ۲۰۱۲ معرفی شد و هدف آن تمرکز روی وب سایتهای با تعداد تبلیغات زیاد بود. حتماً شما هم با وبسایتهایی مواجه شدهاید که تبلیغات زیادی را در قسمت بالایی صفحات (Above the Fold) خود قرار میدهند و برای رسیدن به محتوای اصلی، حتی باید چند بار اسکرول (Scroll) کنید. این وبسایتها که تجربهی کاربری را بهشدت کاهش میدهند، توسط این الگوریتم گوگل جریمه میشوند.
اهداف دنبال شده توسط این الگوریتم عبارتاند از:
- کاهش استفاده از تبلیغات بیش از حد و بهخصوص در قسمت بالایی وبسایت
- ارائهی محتوای مفید و قابل دسترس در قسمتهای اولیهی صفحه
- بهبود طراحی سایت برای دسترسی سریع کاربران به اطلاعات موردنظر
۱۳- الگوریتم گورخر (Google Zebra Algorithm)
الگوریتم گوگل یکی از قدرتمندترین الگوریتم های گوگل است که در سال ۲۰۱۳ برای نظارت بر وب سایتهای فروشگاهی معرفی شد. این الگوریتم تلاش میکند تا فروشگاههای اینترنتی تقلبی و غیرمعتبر را شناسایی و از نتایج جستجو حذف کند.
این الگوریتم علاوه بر محتوای مناسب و ارزشمند و طراحی کاربرپسند، همچنین روی مسائل دیگری مانند اطلاعات تماس و گواهینامههای امنیتی مانند گواهی SSL حساس است و فروشگاههای اینترنتی بیتوجه به این موارد را جریمه میکند.
همچنین فاکتورهای دیگری نیز مانند نظرات کاربران، تعداد لینکهای ورودی به وب سایت، سابقهی دامنه و نرخ پرش (Bounce Rate) نیز میتواند روی اعتبار وب سایت فروشگاهی بر اساس الگوریتم گورخر اثرگذار باشند.
۱۴- الگوریتم مرغ مگس خوار (Hummingbird Algorithm)
الگوریتم مرغ مگسخوار برای بهبود درک معنای عبارتهای جستجو شده توسط کاربران و در سال ۲۰۱۳ معرفی شد. مرغ مگسخوار که یکی دیگر از الگوریتم های گوگل برای نشان دادن مرتبطترین نتیجه به کاربر است، به این موتور جستجو کمک میکند تا هدف کاربر را از عبارت جستجو شده، بهتر بفهمد. هدف این الگوریتم را میتوان در موارد زیر خلاصه کرد:
- بهینهسازی نتایج برای جستجوهای معنایی
- استفاده از کلمات کلیدی طولانی و مرتبط
- تأکید بر ارائهی محتوایی که به سؤالات کاربران، پاسخ دقیق دهد.
۱۵- الگوریتم پی دی لون (Google Payday Loan)
با بررسی الگوریتم های گوگل، بهسادگی میتوان فهمید که یکی از خطوط قرمز اصلی گوگل، وب سایتهای اسپم (Spam) است. یعنی وب سایتهایی که با استفادهی بیش از حد از کلمات کلیدی و بدون توجه به ارزشمند بودن محتوا، سعی داشتند تا موتور جستجوی گوگل را فریب دهند.
گوگل در سال ۲۰۱۳ الگوریتم Payday Loan را با هدف مقابله و جریمه کردن این وب سایتها معرفی کرد. در این الگوریتم، علاوه بر استفادهی بیش از حد از کلمات کلیدی، همچنین روی مسائلی مانند لینکسازی غیرمرتبط و همچنین اسپم کامنت تمرکز میشود.
جالب است بدانید که بعد از معرفی این الگوریتم، 0.4% از وب سایتهای آمریکا و همچنین 4% از وب سایتهای ترکیه تحت تأثیر قرار گرفته و با کاهش رتبه مواجه شدند. حتی وب سایت Ebay نیز در یک بازهی زمانی، توسط این الگوریتم جریمه شد و بعضی از صفحات آن با کاهش رتبه مواجه شدند.
۱۶- الگوریتم کبوتر (Pigeon Algorithm)
فرض کنید شما در تهران هستید و کلمهی «رستوران» را جستجو میکنید. قاعدتاً هدف شما از این جستجو این است که رستورانهای تهران را ببینید؛ کاری که همین الان هم در گوگل میتوانید آن را تست کنید. در واقع نتایج گوگل در جستجوی «رستوران» برای کسی که در تهران است، کاملاً متفاوت با فردی است که در رشت قرار دارد؛ البته اگر دسترسی Location در تلفن همراهتان به گوگل داده شده باشد.
یکی از الگوریتم های گوگل که این کار را انجام میدهد، الگوریتم کبوتر است. این الگوریتم که معرفی آن در سال ۲۰۱۴ انجام شد، باعث میشود تا نتایج جستجو بر اساس مکان جغرافیایی کاربر، دقیقتر شود. اهداف این الگوریتم را میتوان بهصورت زیر خلاصه کرد:
- بهینهسازی سایت برای جستجوهای محلی
- بهینهسازی نتایج با استفاده از ثبت کسب و کار در Google My Business
- استفاده از کلمات کلیدی مرتبط با موقعیت جغرافیایی
۱۷- الگوریتم موبایل گدون (Google Mobilegeddon Algorithm)
الگوریتم موبایل گدون یکی از الگوریتم های گوگل است که در سال ۲۰۱۵ معرفی شد و تمرکز ویژهای روی بهبود تجربهی افرادی که از موبایل برای دسترسی به وب سایتها استفاده میکنند. این الگوریتم به وب سایتهایی که طراحی واکنشگرا (Responsive) را رعایت کرده و در صفحات نمایشهای کوچک هم چه از نظر فونت و چه المانهای ظاهری نشان داده میشوند، رتبههای بالاتری را اختصاص میدهد.
اهمیت دادن به کاربرانی که از موبایل استفاده میکردند، در سال بعد و با معرفی الگوریتم موبایل فرست ایندکس (Mobile First Index) کاملتر شد و کسب و کارها مجبور شدند تا وبسایتهای خود را بهصورت ریسپانسیو طراحی کنند تا با کاهش رتبه مواجه نشوند.
۱۸- الگوریتم موبایل فرندلی (Mobile-Friendly Algorithm)
از ابتدای آغاز قرن ۲۱ بود که استفاده از موبایلهای هوشمند، کمکم بیشتر شد. اما مسئله این بود که وبسایتهایی که تا آن زمان طراحی شده بود، برای نمایش داده شدن در موبایل بهینه نبودند. در واقع تا آن زمان هنوز چیزی به اسم طراحی کنشگرا (Responsive) در توسعهی وب، آنچنان وجود نداشت. گوگل هم نسبت به این ماجرا عکسالعمل نشان داده و تلاش کرد تا وبسایتها را مجبور کند تا بهصورت Responsive طراحی شوند.
بعد از الگوریتم موبایل فرندلی (Mobile Friendly) که یکی از الگوریتم های گوگل برای رسیدن به تجربهی کاربری مناسبتر کاربران است و در سال ۲۰۱۵ معرفی شد، تعداد وبسایتهایی که خودشان را برای استفاده در موبایل هم توسعه دادند، بیشتر و بیشتر شد و حالا دیگر کمتر وبسایتی را میبینید که برای این منظور، بهینه نشده باشد.
تمام تلاش گوگل این بود که با استفاده از این الگوریتم، به اهداف زیر دست پیدا کند:
- بهبود تجربه کاربری (User Experience) در موبایل
- طراحی ریسپانسیو (Responsive) و بهینهسازی سرعت سایت
- استفاده از فونتها و تصاویر مناسب برای نمایش در موبایل
۱۹- الگوریتم رنک برین (Rankbrain Algorithm)
رنکبرین (Rankbrain)، یکی دیگر از الگوریتم های گوگل است که برای نشان دادن مرتبطترین نتیجه به کاربر طراحی و در سال ۲۰۱۵ معرفی شد. این الگوریتم به میدان آمد تا با استفاده از هوش مصنوعی و همچنین یادگیری ماشین، نتایج مرتبطتری را به کاربران نشان دهد.
اهداف این الگوریتم در ادامه عنوان شدهاست:
- اهمیت تجربه کاربری و رفتار کاربر
- تمرکز بر نوشتن محتوای مفید و مرتبط
- درک بهتر هدف جستجوی کاربران
۲۰- الگوریتم موش کور (Google Possum Algorithm)
با وجود الگوریتمهایی مانند کبوتر و ونیز، همچنان یک مشکل حل نشده برای کسب و کارهای محلی وجود داشت. موضوع این بود که گوگل برای کسب و کارهایی که محل فیزیکی مشترکی داشتند (مثلاً کسب و کارهایی که در یک ساختمان قرار داشتند) فقط یک نتیجه را به کاربر نشان میداد و بقیه را حذف میکرد.
الگوریتم موش کور که در سال ۲۰۱۶ معرفی شد، در واقع الگوریتمی بود که هدف اصلی آن حل این مشکل است. علاوه بر این، به لطف این الگوریتم، نتایج نشان دادهشده به کاربر، خیلی هدفمندتر از قبل بود. به این معنی که اگر شما در یک نقطه از شهر باشید، نتایجی که میبینید ممکن است با نتایجی که فرد دیگری در نقطه دیگری از همان شهر میبیند، متفاوت باشد.
علاوه بر این، الگوریتم موش کور تلاش میکند تا نتایج تکراری را هم حذف کند. بهعنوان مثال اگر یک کسبوکار چندین صفحه در گوگل مای بیزینس (Google My Business) با اطلاعات مشابه داشته باشد، موش کور ممکن است فقط یکی از آنها را نمایش دهد.
۲۱- الگوریتم فرد (Fred Google Algorithm)
الگوریتم گوگل یکی دیگر از الگوریتم های گوگل است که در سال ۲۰۱۷، بهصورت غیررسمی توسط گوگل معرفی شد. به این معنی که نام Fred هیچ وقت از طرف خود گوگل روی این الگوریتم قرار نگرفت و این اسمی بود که متخصصین سئو روی آن گذاشتند.
هدف الگوریتم فرد، مقابله با وب سایتهایی بود که بیش از حد به کسب درآمد از طریق تبلیغات روی آورده بودند و همین موضوع باعث شده بود تا از اصل انتشار محتوای ارزشمند، دور شوند.
بر اساس الگوریتم فرد، وب سایتهایی تحت تأثیر قرار گرفته و با کاهش شدید رتبه مواجه شدند که تعداد زیادی تبلیغ روی آنها منتشر شده بود و در عین حال از محتواهای کم کیفیت استفاده کرده بودند.
۲۲- الگوریتم مدیک یا طبی (Google Medic Algorithm)
الگوریتم مدیک یکی از الگوریتمهای مهم گوگل است که در سال ۲۰۱۸ معرفی شد. این الگوریتم به طور خاص بر وبسایتهایی که در دستهبندیهای YMYL (Your Money or Your Life) قرار میگیرند، تأثیرگذار است.
با توجه به اینکه وب سایتهای فعال در حوزهی پزشکی و بهداشتی، بهصورت مستقیم روی سلامت و زندگی افراد اثرگذار است، گوگل این الگوریتم را معرفی کرد تا تمرکز بیشتری روی محتواهای منتشر شده روی این وب سایتها داشته باشد.
الگوریتم مدیک با سه فاکتور اساسی، وب سایتهای منتشر کنندهی محتوای غیرعلمی و اشتباه را در حوزهی بهداشت و درمان، از نتایج گوگل حذف میکند:
- تخصص (Expertise): نویسندگان و تولیدکنندگان محتوا باید در زمینه موضوع مورد بحث تخصص و دانش کافی داشته باشند.
- اعتبار (Authoritativeness): وبسایت باید به عنوان یک منبع معتبر و مورد اعتماد در زمینه خود شناخته شود.
- اعتماد (Trustworthiness): وبسایت باید قابل اعتماد باشد و اطلاعات دقیق و صحیح ارائه دهد.
همین سه فاکتور در برخی موارد با نام الگوریتم E-A-T گوگل نیز شناخته میشود اما واقعیت این است که E-A-T یک الگوریتم جداگانه نیست.
۲۳- الگوریتم موبایل فرست ایندکس (Mobile First Index Algorithm)
سهم استفاده از موبایلها در وبگردی، همچنان رو به رشد بود. به همین دلیل گوگل در سال ۲۰۱۸ الگوریتم دیگری با نام موبایل فرست ایندکس (First Index) را منتشر کرد که بر اساس آن، حالا دیگر نسخهی موبایل وبسایتها بود که بهعنوان مرجع اصلی ایندکس و رتبهبندی در نظر گرفته میشود و وبسایتهایی که این نکته را رعایت نکنند، با پیامد کاهش رتبه در گوگل روبرو میشوند.
این الگوریتم یکی از ساختار شکنانهترین الگوریتم های گوگل بود اما سالها بعد مشخص شد که آیندهنگری گوگل در پی بردن به این واقعیت که موبایلها قرار است جای کامپیوترها را در وبگردی بگیرند، صحیح بوده است.
اثر الگوریتم موبایل فرست ایندکس در سئو، شامل موارد زیر است:
- اهمیت طراحی سایت به صورت ریسپانسیو
- بهینهسازی نسخه موبایل از لحاظ سرعت و محتوا
- توجه به تجربه کاربری در موبایل
۲۴- الگوریتم برت (BERT Algorithm)
الگوریتم BERT با هدف درک بهتر زبان بومی کاربر و هدف جستجو در سال ۲۰۱۹ معرفی شد. بهعبارت دیگر BERT یکی از الگوریتم های گوگل است که به این موتور جستجو کمک میکند تا ارتباط بین کلمات و عبارات یک جمله را بهصورت عمیقتری تشخیص دهد. این الگوریتم تمرکز ویژهای بر مفهوم کلمات دارد. در واقع یکی از اهداف ثانویهی این الگوریتم، تمرکززدایی از بهکارگیری صرف کلمات کلیدی بود و با همین تعریف میتوان به این نتیجه رسید که این الگوریتم، همکار الگوریتم پاندا است که قبلاً در مورد آن توضیح داده شد.
این الگوریتم بر اساس موارد زیر، روی سئوی سایت اثرگذار است:
- اهمیت تولید محتوایی که به زبان طبیعی نوشتهشدهباشد.
- پاسخدهی دقیق به سوالات کاربران با ارائه محتوای مرتبط
- کاهش تأثیر تکنیکهای قدیمی مانند استفاده بیرویه از کلمات کلیدی
۲۵- الگوریتم پاسیج (Passage Ranking)
الگوریتم پاسیج یکی دیگر از الگوریتم های گوگل است که کارکرد جذابی دارد. بر اساس این الگوریتم که در سال ۲۰۲۰ معرفی شد، رتبهبندی بخشهای خاصی از محتوا به جای کل صفحه در دستور کار گوگل قرار گرفت. بنابراین پس از معرفی این الگوریتم، گوگل بخشهایی از محتوا را که مرتبط با جستجوی کاربر است به او نشان میدهد.
تأثیر این الگوریتم را در سئوی وبسایت، میتوان در موارد زیر خلاصه کرد:
- تولید محتوای دقیق و جامع
- استفاده از عناوین و سرتیترهای واضح برای بخشهای مختلف محتوا
- تمرکز بر پاسخدهی دقیق به سوالات کاربران
۲۶- الگوریتم هستهی حیاتی وب (Core Web Vitals)
الگوریتم Core Web Vitals هم در سال ۲۰۲۰ توسط گوگل معرفی شد و نقطهی تمرکزش را روی عملکرد وبسایت قرار داد. این الگوریتم سه فاکتور اساسی را در وبسایتها بررسی میکند و بر اساس این فاکتورها، رتبهبندی وبسایتهای مختلف را در نتایج SERP مشخص میکند:
- LCP: سرعت بارگذاری محتوای اصلی صفحه
- FID: سرعت واکنش سایت به اولین تعامل کاربر
- CLS: میزان ثبات عناصر بصری هنگام بارگذاری
بنابراین پارامترهای زیر را میتوان بهعنوان نکات اصلی اثرگذار این الگوریتم در سئوی وبسایتها دانست:
- بهینهسازی سرعت سایت و کاهش زمان بارگذاری
- جلوگیری از تغییرات ناگهانی در چیدمان صفحه
- ارتقای تجربه کاربری برای تعاملات سریع و روان
۲۷- الگوریتم مام (Google MUM Algorithm)
الگوریتم MUM گوگل (Multitask Unified Model) یکی دیگر از الگوریتم های گوگل است که در سال ۲۰۲۱ معرفی شد و به گوگل کمک میکند تا سؤالات پیچیدهتر کاربران را بهتر درک کرده و پاسخها و نتایج مرتبطتری را به آنها نشان دهد.
سه ویژگی الگوریتم MUM که در ادامه توضیح داده میشوند، میتوانند به شما در درک کاملتر کارکرد این الگوریتم قدرتمند و پیچیده کمک کنند:
- چند وجهی (Multimodal): میتواند اطلاعات را از فرمتهای مختلف مانند متن، عکس، ویدیو و صوت درک کند و با هم ترکیب کند. مثلاً اگر یک گیاه در خانهتان داشته باشید و سؤال شما در مورد نحوهی نگهداری از آن باشد، میتوانید عکس آن را به گوگل بدهید و محتواهای مربوط به همان گیاه را دریافت کنید.
- چند زبانه (Multilingual): میتواند اطلاعات را از زبانهای مختلف درک کند و به زبان کاربر ترجمه کند. برای مثال، اگر بهترین اطلاعات در مورد یک موضوع خاص در یک صفحه وب به زبان ژاپنی باشد، MUM میتواند آن را درک کرده و به زبان فارسی به شما ارائه دهد.
- درک عمیقتر زبان (Deeper Understanding of Language): میتواند مفاهیم و ارتباطات بین کلمات و جملات را بهتر درک کند و به سوالات پیچیدهتر پاسخ دهد. به جای پاسخهای کوتاه و ساده، MUM میتواند پاسخهای جامع و مفصلی ارائه دهد که شامل اطلاعات از منابع مختلف است.
۲۸- الگوریتم پروداکت رویو (Product Review Algorithm)
الگوریتم Product Review از جمله الگوریتم های گوگل است که اثر آن بهخصوص روی وب سایتهای فروشگاهی، بسیار محسوستر از وب سایتهای دیگر است. گوگل این الگوریتم را در سال ۲۰۲۱ معرفی کرد و هدف آن، بررسی جامعتر محصولاتی بود که روی وب سایتهای فروشگاهی وجود داشتند.
قبل از معرفی این الگوریتم، بسیاری از وبسایتها صرفاً به ارائهی مشخصات فنی محصولات یا نوشتن بررسیهای کوتاه و سطحی میپرداختند. این موضوع باعث میشد که کاربران نتوانند اطلاعات کافی برای تصمیمگیری در مورد خرید محصول را به دست آورند. با معرفی الگوریتم Product Review، گوگل به دنبال بهبود این وضعیت و ارائه بررسیهای مفیدتر و باکیفیتتر به کاربران است.
بعد از معرفی الگوریتم Product Review، اضافه کردن تصاویر واضح از محصول، ویدیوهای بررسی و همچنین اطلاعات متنی مفید و جامع بررسی محصول، روی رتبه گرفتن وب سایتها تأثیر زیادی گذاشت و بسیاری از وب سایتهایی که این قانون را رعایت نمیکردند، با کاهش شدید رتبه و در نتیجه کاهش درآمد مواجه شدند.
۲۹- الگوریتم E-E-A-T
الگوریتم E-E-A-T در واقع نمونهی آپدیت شدهی الگوریتم E-A-T است که پیشتر در مورد آن توضیح دادیم. این الگوریتم که در سال ۲۰۲۲ معرفی شد، مجموعهای از معیارهاست که گوگل برای ارزیابی کیفیت و اعتبار محتوای وبسایتها از آن استفاده میکند. این الگوریتم به گوگل کمک میکند تا به صفحاتی که اطلاعات دقیق، معتبر و مفید ارائه میدهند، در نتایج جستجو رتبه بالاتری بدهد.
E-E-A-T مخفف چهار کلمهی انگلیسی است:
- Experience (تجربه): این ویژگی به تجربه دست اول نویسنده یا سازنده محتوا در مورد موضوع اشاره دارد و جزء اضافه شده به الگوریتم E-A-T است. این فاکتور در واقع میخواهد گوگل را مطمئن کند که نویسندهی محتوای تخصصی، تجربهی مناسبی در موضوع محتوای تولیدی دارد.
- Expertise (تخصص): این فاکتور به دانش و مهارت نویسنده یا سازنده محتوا در مورد موضوع اشاره دارد. بهعبارت دیگر هدف این فاکتور، بررسی تخصص نویسنده در مورد موضوع محتوا است.
- Authoritativeness (اعتبار): این ویژگی به میزان اعتبار نویسنده، محتوا یا وبسایت در بین سایر متخصصان و کاربران اشاره دارد. بهعبارت دیگر، آیا نویسنده یا خود وب سایت بهعنوان یک مرجع در همان حوزه شناخته میشود؟
- Trustworthiness (اعتمادپذیری): و در نهایت این فاکتور نیز به میزان صداقت، شفافیت و دقت اطلاعات ارائه شده اشاره دارد. این فاکتور میخواهد گوگل را به این نتیجه برساند که تا چه اندازه میتوان به محتوای تولید شده مطمئن بود.
۳۰- الگوریتم مفید بودن محتوا (Helpful Content Algorithm)
در سال ۲۰۲۲، گوگل تصمیم گرفت تا باز هم روی محتوای مفید و کاربردی تمرکز کند. برای رسیدن به این هدف، الگوریتم مفید بودن محتوا معرفی شد. این الگوریتم سایتهایی را که محتوای ارزشمندی ندارند، شناسایی و جریمه میکند. دقت کنید که Helpful Content Algorithm یکی از پیشرفتهترین الگوریتم های گوگل است که میتواند بهصورت مستقیم، محتوای مفید را از غیرمفید تشخیص دهد. این الگوریتم بر اساس فاکتورهای زیر، روی سئوی سایت اثر میگذارد:
- تمرکز بر رفع نیاز کاربران
- کاهش تولید محتوای تبلیغاتی بیش از حد
- اولویت به اصالت و کیفیت محتوا
۳۱- الگوریتم اسپم برین (SpamBrain Algorithm)
اسپم برین، یکی از جدیدترین الگوریتم های گوگل است که در سال ۲۰۲۳ و با هدف شناسایی و مبارزهی هوشمند با وبسایتهای اسپم (Spam) توسعه داده شد. این الگوریتم با استفاده از تکنولوژیهای جدید مانند یادگیری ماشین (Machine Learning)، اسپمها و همچنین روشهای دور زدن الگوریتمهای قبلی را شناسایی کرده و رتبهی سئوی آنها را کاهش میدهد.
فاکتورهای زیر، از جمله پارامترهای مهم در این روش محسوب میشوند که بهصورت مستقیم روی سئوی سایت اثرگذار است:
- اجتناب از استفاده از روشهای اسپم
- تأکید بر شفافیت و صداقت در لینکسازی
- بهبود ساختار و محتوای سایت
در جدول زیر، خلاصه اطلاعات مربوط به تمام الگوریتم های گوگل ارائه شدهاست تا بتوانید با دید عمیقتری از آنها در بهینه کردن موتورهای جستجو (Search Engine Optimization) سایت خود استفاده کنید.
نام الگوریتم | سال معرفی | ویژگیها و اهداف اصلی |
الگوریتم پیج رنک (Pagerank) | ۱۹۹۸ | رتبهبندی صفحات وب بر اساس تعداد و کیفیت لینکهای ورودی به آنها |
الگوریتم رقص گوگل (Google Dance) | ۲۰۰۰ | تغییرات موقت و نوسانات رتبه سایتها پس از بهروزرسانی الگوریتمهای گوگل (دیگر به شکل سابق وجود ندارد) |
الگوریتم هیل تاپ (Hilltop) | ۲۰۰۳ | تمرکز بر شناسایی صفحات «متخصص» در یک موضوع خاص و رتبهدهی بر اساس ارتباط آنها با سایر صفحات متخصص |
الگوریتم سندباکس (Sandbox) | ۲۰۰۴ | قرار دادن وبسایتهای جدید در یک دوره آزمایشی برای جلوگیری از رتبهگیری سریع سایتهای اسپم |
الگوریتم کافئین (Caffeine) | ۲۰۱۰ | بهبود سرعت ایندکس و بهروزرسانی محتوای وبسایتها در نتایج جستجو |
الگوریتم تازگی محتوا (Freshness) | ۲۰۱۱ | اولویتدهی به محتوای جدید و بهروز در نتایج جستجو، بهویژه برای موضوعات حساس به زمان |
الگوریتم پاندا (Panda) | ۲۰۱۱ | کاهش رتبه وبسایتهای با محتوای کمکیفیت و کپیشده، تاکید بر تولید محتوای باکیفیت و کاربردی برای کاربران |
الگوریتم ونیز (Venice) | ۲۰۱۲ | نمایش نتایج جستجوی محلی بر اساس موقعیت جغرافیایی کاربر |
الگوریتم دزد دریایی (Pirate) | ۲۰۱۲ | جلوگیری از نمایش وبسایتهایی که محتوای دارای حق کپیرایت را به صورت غیرقانونی منتشر میکنند. |
الگوریتم EMD | ۲۰۱۲ | کاهش رتبه وبسایتهایی که دامنه آنها دقیقاً با کلمات کلیدی مورد جستجو مطابقت دارد (Exact Match Domain) و محتوای با کیفیتی ندارند. |
الگوریتم پنگوئن (Penguin) | ۲۰۱۲ | شناسایی و جریمه سایتهایی که از روشهای غیرقانونی برای دریافت بکلینک استفاده میکنند؛ تمرکز بر بکلینکهای طبیعی و باکیفیت |
الگوریتم پیج لایوت (Page Layout) | ۲۰۱۲ | کاهش تبلیغات بیش از حد در قسمت بالای وبسایت، ارائه محتوای مفید در بخشهای اولیه صفحه، بهبود تجربه کاربری |
الگوریتم گورخر (Zebra) | ۲۰۱۳ | بهبود تشخیص لینکهای اسپم و بیکیفیت و تاثیر منفی آنها بر رتبه سایتها |
الگوریتم مرغ مگسخوار (Hummingbird) | ۲۰۱۳ | بهبود درک معنای عبارتهای جستجو شده، ارائه نتایج دقیقتر و مرتبطتر به کاربران، تاکید بر جستجوهای معنایی و کلمات کلیدی طولانی |
الگوریتم Payday Loan | ۲۰۱۳ | هدف قرار دادن وبسایتهای مرتبط با وامهای کوتاهمدت و با نرخ بهره بالا که اغلب کیفیت پایینی دارند. |
الگوریتم کبوتر (Pigeon) | ۲۰۱۴ | بهینهسازی نتایج جستجو بر اساس مکان جغرافیایی کاربران؛ تمرکز بر سئوی محلی و استفاده از Google My Business |
الگوریتم موبایل گدون (Mobilegeddon) | ۲۰۱۵ | اولویتدهی به وبسایتهای سازگار با موبایل (ریسپانسیو) در نتایج جستجوی موبایل |
الگوریتم موبایل فرندلی (Mobile-Friendly) | ۲۰۱۵ | بهبود تجربه کاربری در موبایل، طراحی ریسپانسیو و بهینهسازی سایت برای نمایش بهتر در موبایل |
الگوریتم رنک برین (RankBrain) | ۲۰۱۵ | استفاده از هوش مصنوعی و یادگیری ماشین برای ارائه نتایج مرتبطتر به کاربران؛ تمرکز بر درک هدف جستجو و رفتار کاربران |
الگوریتم موش کور (Possum) | ۲۰۱۷ | بهبود نتایج جستجوی محلی و فیلتر کردن نتایج مشابه برای کسبوکارهای محلی |
الگوریتم فرد | ۲۰۱۷ | شناسایی وبسایتهایی که بیش از اندازه روی کسب درآمد از وب سایت تمرکز دارند و محتوای بیکیفیت منتشر میکنند. |
الگوریتم مدیک (Medic) | ۲۰۱۸ | تمرکز بر بهبود کیفیت و اعتبار محتوای وبسایتهای مرتبط با سلامت و پزشکی |
الگوریتم موبایل فرست ایندکس (Mobile-First Index) | ۲۰۱۸ | اهمیت نسخه موبایل سایت برای ایندکس و رتبهبندی؛ تاکید بر طراحی ریسپانسیو و بهینهسازی محتوا برای موبایل |
الگوریتم برت (BERT) | ۲۰۱۹ | درک بهتر زبان بومی کاربر، تحلیل عمیقتر روابط بین کلمات در جملات، کاهش تاثیر تکنیکهای قدیمی مانند استفاده بیش از حد از کلمات کلیدی |
الگوریتم پاسیج (Passage Ranking) | ۲۰۲۰ | رتبهبندی بخشهای خاصی از محتوا به جای کل صفحه؛ تمرکز بر تولید محتوای دقیق و جامع با عناوین واضح برای هر بخش |
الگوریتم هستهی حیاتی وب (Core Web Vitals) | ۲۰۲۰ | بهینهسازی سرعت سایت، ثبات عناصر بصری و بهبود تجربه تعامل کاربر بر اساس سه فاکتور اصلی LCP، FID و CLS |
الگوریتم MUM | ۲۰۲۱ | درک عمیقتر زبان، پردازش اطلاعات چندوجهی (متن، عکس، ویدیو) و ارائه پاسخهای جامعتر به سوالات پیچیده |
الگوریتم Product Reviews | ۲۰۲۱ | ارزیابی کیفیت و اعتبار بررسی محصولات در وبسایتها و نمایش بهترین بررسیها در نتایج جستجو |
الگوریتم E-E-A-T | ۲۰۲۲ | ارزیابی کیفیت و اعتبار محتوای وبسایتها بر اساس تجربه، تخصص، اعتبار و اعتمادپذیری نویسنده و وبسایت |
الگوریتم مفید بودن محتوا (Helpful Content) | ۲۰۲۲ | شناسایی محتوای ارزشمند و جریمه محتوای بیکیفیت یا تبلیغاتی؛ تاکید بر اصالت و رفع نیاز کاربران |
الگوریتم اسپم برین (SpamBrain) | ۲۰۲۳ | شناسایی و مبارزه با سایتهای اسپم و روشهای دور زدن الگوریتمها با استفاده از یادگیری ماشین؛ تمرکز بر کاهش رتبه سایتهای اسپم |
چرا گوگل الگوریتم های خود را آپدیت میکند؟
اینکه الگوریتم های گوگل همیشه مورد بازبینی قرار میگیرند و ممکن است شیوهی کارشان تغییر کند و یا حتی بازنشسته شوند، همیشه توسط خود گوگل هم تأیید شدهاست؛ اما برای فهمیدن چرایی این موضوع، باید با عینک گوگل به مسئلهی الگوریتم و آپدیتها نگاه کنیم. مهمترین هدف گوگل این است که بهترین نتیجه را نسبت به جستجوی کاربر، به او نشان دهد.
این قاعدهی طلایی گوگل است و همهی الگوریتمها هم آمدهاند تا گوگل را به این هدفش برسانند. حالا ماجرا کمی مشخصتر میشود: بنابراین دلیل آپدیت های گوگل برای الگوریتم هایش هم میتواند این باشد که الگوریتمهای قبلی، کارایی خود را از دست دادهاند.
اجازه دهید یک نتیجهی خیلی سریع از این موضوع بگیریم و به سراغ قسمت بعدی برویم:
وقتی گوگل متوجه میشود که الگوریتمهای قبلی، دیگر به اندازهی قبل کارایی ندارند و یا یک روش جدید برای دور زدن قوانینش کشف میکند، آپدیتهای جدیدی برای الگوریتمها معرفی میکند.
تأثیر آپدیت های گوگل بر سئو
بعد از همهی اطلاعاتی که تا این قسمت ارائه شد، همچنان یک سؤال مهم وجود دارد: آیا آپدیت الگوریتم های گوگل روی سئوی سایت اثر میگذارد؟ و اگر پاسخ این سؤال مثبت است، آیا ممکن است گوگل الگوریتمی را ارائه کند که تمام زحماتمان را روی سئو سایت، نابود کند؟
پاسخ این سؤال را میتوانیم با استفاده از همان کلید طلایی توضیح داده شده در قسمت قبلی، بیان کنیم. بیایید دوباره یادآوری کنیم که هدف گوگل از الگوریتمها چیست؟ آیا بهجز این است که گوگل همیشه تلاش کرده است تا کاربر، به درستترین و کاربردیترین مطلب منتشر شده در اینترنت، دست پیدا کند؟
اگر بخواهیم منصفانه به مسیری که گوگل از همان سال ۲۰۰۰ تا الان پیموده نگاه کنیم، صادقانه باید بگوییم که در حال حاضر، نتایجی که توسط گوگل ارائه میشود، واقعاً بهترین نتایجی است که روی اینترنت وجود دارد. قدیمیهای این حوزه خیلی خوب یادشان هست که تا همین چند سال پیش، ممکن بود یکی از نتایج گوگل را باز کنید و ببینید که صفحهای که به شما نشان داده میشود، بدون حتی یک خط محتوای کاربردی و پر است از تبلیغاتی که به هیچ دردتان نمیخورد.
تمام هدف ارائهی آپدیت های گوگل برای الگوریتمها، این است که وبسایتهای با محتوای غیر کاربردی و همچنین وبسایتهایی که از تکنیکهای کلاه سیاه برای کسب رتبههای بهتر استفاده میکنند، از دور رقابت کنار بروند.
پس آپدیتهای گوگل نه تنها نباید برای افرادی که بهصورت اصولی روی سئوی سایت کار میکنند و قانون طلایی گوگل را هم رعایت میکنند، دغدغهای داشته باشد، بلکه حتی با کنار رفتن رقبای متخلف احتمالیشان، فرصت بیشتری برای کسب رتبههای بهتر گوگل بهدست میآورند.
چگونه با آپدیت های گوگل سازگار شویم؟
همانطور که در قسمتهای قبلی توضیح داده شد، گوگل همیشه تلاش میکند تا با بهروز نگه داشتن الگوریتمهای خود، تجربه و رضایت کاربران را افزایش دهد. نکتهی بعدی هم این است که الگوریتم های گوگل و جزئیات و نحوهی عملکرد آنها بهدلیل مسائل امنیتی، هیچ گاه توسط خود این کمپانی منتشر نمیشود. گوگل صرفاً در صفحهای که برای توسعه دهندهها در نظر گرفته است و همچنین در برخی از کنفرانسهای سئو، در مورد برخی از الگوریتمها و رویکردهای جدید موتور جستجو توضیحاتی کلی میدهد.
بنابراین اولین گام برای سازگار شدن با آپدیت های گوگل این است که خبرهای حوزهی سئو را از طریق صفحهی رسمی گوگل برای توسعهدهندهها و همچنین سمینارهای رسمی این کمپانی، دنبال کنیم. همچنین معمولاً پس از این سمینارها، تحلیلهای مختلفی از سمت متخصصین سئو ارائه میشود که با استفاده از آنها میتوانیم به این نتیجه برسیم که آپدیت جدید گوگل چگونه کار میکند و ما چطور میتوانیم با آن سازگار شویم.
جمعبندی
الگوریتم های گوگل از یک طرف سازوکار امتیازدهی به وبسایتها را مشخص میکند و از طرف دیگر وبسایتهایی را که تلاش میکنند تا قواعد گوگل را دور بزنند، با کاهش رتبه در نتایج روبرو میکند. اگر از قسمت پروپاگاندایی موضوع بگذریم، کسب اطلاعات در مورد آپدیت های گوگل حداقل میتواند از جریمه شدنهای بیمورد جلوگیری کند. در این مطلب از بلاگ پارسپک در مورد همین موضوع صحبت کرده و اطلاعات کاملی را در مورد این الگوریتمها ارائه کردهایم.
سؤالات متداول
وظیفهی الگوریتم های گوگل چیست؟
الگوریتم های گوگل قوانین مربوط به نحوهی امتیازدهی به وبسایتهای مختلف را مشخص میکنند. بهعنوان مثال برخی از این الگوریتمها وبسایتهای خاطی را جریمه میکنند و برخی دیگر کیفیت محتوا و سیستم لینکدهی داخلی و خارجی وبسایت را بررسی کرده و به آنها امتیاز میدهند.
تفاوت الگوریتم و آپدیت گوگل چیست؟
الگوریتمهای گوگل به قواعد و قانونهایی گفته میشود که گوگل برای امتیازدهی به وبسایتها از آنها استفاده میکند. اما منظور از آپدیت گوگل که در برخی موارد به اشتباه بهجای الگوریتم مورداستفاده قرار میگیرد، بهروزرسانیهای هستهی گوگل است. بهعنوان مثال تغییر در تعداد نتایج صفحهی اول، یکی از آپدیت های گوگل است.
چطور میتوان از آپدیت الگوریتم های گوگل مطلع شد؟
برای اطلاع از آخرین الگوریتم های گوگل و تغییراتی که در نسخههای قبلی الگوریتمها ایجاد شدهاست، میتوانید به سمینارهای رسمی گوگل و همچنین صفحهی گوگل ویژهی توسعه دهندگان وب مراجعه نمایید.