مقالات تخصصی معرفی الگوریتم های گوگل به ترتیب انتشار! مهرزاد شجاعی زمان مطالعه : 22 دقیقه آوریل 20, 2025 11:00 ق.ظ فهرست مطالب آخرین آموزش های سئو و سایت اینستاگرام تابان شهر ما را در تلگرام را دنبال کنید! مفهوم الگوریتم چیست؟ الگوریتم ها مجموعه ای از دستورالعمل های مرحله به مرحله و واضح هستند که برای حل مسئله یا انجام یک کار خاص طراحی می شوند. به بیان ساده تر الگوریتم به کامپیوتر یا انسان می گوید که چگونه دیتاها را پردازش کند تا نتیجه ای مطلوب بگیرد. نکته ای که مهم است یک سئو کار سایت درباره این مفهوم بداند این است که الگوریتم های گوگل هم از همین قاعده پیروی می کنند!
معرفی الگوریتم های گوگل در سئو “الگوریتم های گوگل” هم مجموعه از قوانین و سیستم های پیچیده هستند که موتور جستجو از آنها برای رتبه بندی صفحات وب استفاده می کند. معیارهای مختلف برای این الگوریتم های گوگل برای سئو تعریف شده که با بررسی آنها تلاش می کند تا بهترین و عادلانه ترین رتبه بندی در SERP را به کاربر خود نشان دهد؛ از کیفیت محتوا و ارتباط کلمات جستجو شده تا دیگر فاکتورهای مهم سئو مانند سرعت بارگذاری صفحه، تجربه کاربری و اعتبار سایت! گوگل به طور مداوم این الگوریتم ها را آپدیت می کند تا نتایج دقیق و مفیدتر بشوند.
https://tabaneshahr.com/wp-content/uploads/2025/04/Google-Algorithms.mp3 هدف از الگوریتم های سئو گوگل چیست؟ همانطور که به آن اشاره هم شد، هدف گوگل از الگوریتم های سئو موتور جستجویش، به صورت خلاصه «نشان دادن بهترین و مرتبط ترین نتایج به کاربران» می باشد. در واقع، ساختار سیستم رتبه بندی موتور جستجو گوگل تمایل دارد تا پاسخ دقیق و سریعی به جستجوهای کاربران ارائه دهد و رضایت آنها را جلب نماید. در ادامه با لیست الگوریتم های گوگل و اهداف و ویژگی های آنها آشنا خواهیم شد.
فهرست مهمترین بروزرسانی ها و الگوریتم های گوگل به همراه معرفی کامل هر کدام! 1. الگوریتم پیج رنک (PageRank): از سال 1996 تا 1998 الگوریتم پیج رنک به عنوان هسته اصلی و اساسی موتور جستجوی گوگل و اولین اقدام درخشان دو بنیانگذار کمپانی گوگل بود! ایده اصلی اما انقلابی آن را می توان در یک جمله خلاصه کرد: «هر صفحه وب بر اساس تعداد و کیفیت لینک های ورودی به آن، امتیاز می گیرد». درست مثل یک مقاله علمی که هرچقدر ارجاعات بیشتر و معتبرتری داشته باشد، مقاله ارزشمندتری به شمار می رود.
این نمونه از “الگوریتم های سئو گوگل” فضای وب را نه تنها به فضایی برابرتر و قابل رقابت تر تبدیل کرد، بلکه امکان رتبه بندی هوشمندانه تر سایت ها را در نتایج ایجاد کرد. بعد از گذشت نزدیک به 3 دهه از تولد آن، هنوز هم بعضی اصول اولیه پیج رنک در اصول رتبه بندی گوگل وجود دارد. جالب است بدانید که نام این الگوریتم گوگل از نام یکی از همان بنیانگذارها (Larry Page) گرفته شده، نه از معادل کلمه «صفحه» در زبان انگلیسی!
2. الگوریتم فلوریدا (Florida): نوامبر 2003 در ماه نوامبر سال 2003 گوگل الگوریتم فلوریدا را معرفی و مفهوم و روش های سئو را شوکه و سپس متحول کرد. نام این الگوریتم مشخصاً از نام یک ایالت پرجمعیت و آفتابی ایالات متحده آمریکا گرفته شده و در فاصله کوتاهی از عرضه شدن، هزاران وبسایت را از SERP حذف کرد! فلوریدا تکنیک های سئو کلاه سیاه مثل پرکردن صفحات با تکرار کلمات کلیدی و لینک سازی غیر طبیعی را هدف گرفت.
بعد از انتشار این الگوریتم بود که به نوعی موتور جستجو پایان رتبه خوب گرفتن با استفاده از ترفندهای مصنوعی را اعلام کرد و سئوی مدرن و امروزی تر را پایه گذاشت. فلوریدا به یک متخصص سئو در آن زمان با شیوه ای سخت یادآوری کرد که باید تمرکز را از بازی با خلاهای سیستم برداشت و برای محتوای با کیفیت و کاربردی گذاشت!
3. الگوریتم هیلتاپ (Hilltop): فوریه 2003 الگوریتم هیلتاپ یک روش رتبه بندی هوشمندانه بر پایه اعتبار تخصصی آنها است. هیلتاپ برخلاف روش های سنتی تر، روی صفحه هایی که به عنوان مرجع در یک حوزه شناخته می شوند متمرکز بود و از ارتباط موضوعی میان لینک ها برای بهبود نتایج استفاده می کرد. این الگوریتم همانطور که انتظار می رفت در شناسایی صفحات معتبر و مرتبط با کوئری های مد نظر کاربران نقش مهمی داشت و موجب توسعه برخی دیگر از الگوریتم های گوگل مثل پیج رنک هم شد!
4. الگوریتم برندی (Brandy): فوریه 2004 برندی در ماه دوم سال 2004 معرفی شد. این نمونه از الگوریتم های گوگل در سئو، یک روش ماهرانه برای حل مباحث پیچیده محاسباتی بود. الگوریتم Brandy از فرایندهای طبیعی و ترکیب تکنیک های مبتکرانه الهام گرفت و بر ارائه راه حل های کارآمد برای برخی مشکلات نظیر مسیریابی، زمان بندی و تخصیص منابع تمرکز داشت. این الگوریتم Google توجه متخصصان را به عنوان یک ابزار کلیدی در حوزه های مختلف مهندسی و علوم کامپیوتر به خود جلب کرد و از نظر سرعت و دقت در عملکرد و سادگی در پیاده سازی برای آنها جذاب و کاربردی بود!
5. الگوریتم جگر (Jagger): سپتامبر تا نوامبر 2005 جگر با هدف بهترکردن کیفیت نتایج و مقابله با تکنیک های اسپم طراحی و ارائه شد. این الگوریتم شناسایی و کاهش تاثیرات لینک های اسپمی و غیر طبیعی را هدف قرار داد و با دقیق تر کردن تحلیل اعتبار لینک هایی که یک صفحه می گیرد، سعی داشت تا روش های کلاه سیاه را خنثی تر کند. الگوریتم Jagger قسمتی از اقدامات پیگیرانه موتور جستجو برای ارائه یک SERP معتبر و مرتبط تر به مخاطبان خودش بود و نقشی غیر قابل انکار در تکامل الگوریتم های گوگل بعدی نظیر پاندا و پنگوئن داشت.
آماده کسب اطلاعات بیشتر درباره مفاهیم و ابزارهای سئو هستید؟ کانال یوتوب آکادمی تابان دارای ویدئوها و وبینارهای تخصصی در حوزه سئو سایت می باشد. همین حالا وارد این کانال بشوید و محتوای آن را دنبال کنید. کانال یوتوب آکادمی تابان 6. الگوریتم بیگ ددی (Big Daddy): دسامبر 2005 الگوریتم Big Daddy بروزرسانی مهمی بود! بخش اصلی تمرکز این الگوریتم بر بهبود تحلیل و ارزیابی پیوندهای ورودی یا همان بک لینک ها و ارتباطشان با محتوای صفحه ها بود. هدف آن برخورد جدی با ترفندهای اسپمی دستکاری لینک ها بود بر شیوه های امتیازدهی به لینک ها تاثیر گذاشت. بیگ ددی همچنین مبنایی برای الگوریتم های بعد موتور جستجو شد و ثابت کرد که گوگل در مسیر درستی برای تشخیص دادن کیفیت لینک و محتوا قرار دارد. در پایان سال 2005 میلادی یکبار دیگر گوگل متخصصان را به سمت تولید محتوای با کیفیت راهنمایی کرد.
7. الگوریتم گوگل مپس (Google Local/Maps Update): ژوئن 2007 در ماه ژوئن سال 2007، گوگل یک الگوریتم متحول کننده برای نقشه هایش (Google Maps) ارائه کرد و تجربه کاربری مرتبط با آن را بهبود بخشید. این الگوریتم بر بهترکردن دقت و بروزبودن اطلاعات مکانی تاثیرگذار بود اما این همه ماجرا نبود! در گامی حتی با اهمیت تر، نتایج جستجوی محلی را با نقشه ها در جهت تسهیل در یافتن مسیرها، مکان کسب و کارها و نقاط مد نظر کاربرها ادغام کرد. در این بروزرسانی، گوگل برای ارتباط میان جستجوهای محلی و داده های نقشه های خود تاکید و تمرکز بیشتر و ویژه ای داشت و ساختار هوشمند و کاربرپسند امروز گوگل مپس را پایه گذاری کرد.
8. الگوریتم دیویی (Dewey): مارس 2008 گوگل با تاثیر پذیرفتن و الهام گرفتن از سیستم ده دهی جان دیویی (Dewey Decimal System) در کتابخانه ها که برای طبقه بندی اطلاعات بود، در جهت بهبود درک معنایی و ارتباط موضوعی صفحات وب گام برداشت. به نوعی این الگوریتم ایجاد شد تا نتایج جستجو نه فقط بر اساس کلمه های کلیدی، بلکه بر پایه زمینه و مفهوم محتوا به مخاطبان گوگل عرضه شود. دیویی موتور جستجو را هوشمندتر کرد و پایه ارائه الگوریتم های پیشرفته تری را در آینده مانند رنک برین و Pigeon گذاشت.
9. الگوریتم وینس (Vince): ژانویه 2009 وینس برای بهینه سازی و حل مسائل پیچیده تر محاسباتی به صورت هوشمندانه تر ارائه شد. این الگوریتم از ایده های قبلی الهام گرفت و نسخه بهودیافته تری از آن ها بود. وینس عملکرد، کارایی و سرعت پردازش را با بهره از راهبردهایی مبتکرانه بیشتر کرد! این الگوریتم همچنین در حوزه هایی مثل داده کاوی، ماشین لرنینگ و پردازش سیگنال کاربرد دارد و راه حل های عملی تری را با کاهش پیچیدگی های محاسباتی ارائه داد. این الگوریتم همان قدر که در تئوری جذاب بود در عمل هم کاربردی واقع شد!
10. الگوریتم کافئین (Caffeine): اوت 2010 کافئین بر نحوه ایندکس کردن و نمایش نتایج جستجو تاثیر گذاشت و تغییراتی بزرگ را پدید آورد! برخلاف سیستم های پیشین که ایندکس را به صورت دوره ای جلو می برد، کافئین با ساختار جدید خود امکان پردازش و نمایش محتوای وب را تقریباً در زمان واقعی فراهم کرد. به صورت خلاصه و شفاف تر، زمانی که یک مطلب و محتوای جدید در فضای وب منتشر می کنید، گوگل خیلی سریع تر آن را در نتایج جستجو نشان می دهد. این الگوریتم اکثر تمرکز خود را بر سرعت، مقیاس پذیری و جامعیت داده ها گذاشت و موجب پیشرفت های بعدی گوگل شد.
11. الگوریتم پاندا (Panda): فوریه 2011 الگوریتم پاندا (Panda) یک الگوریتم انقلابی بود! پاندا سایت های کم محتوا و کپی کار را با کاهش رتبه جریمه و سایت های دارای محتوای با کیفیت را با تقویت رتبه تشویق کرد. این الگوریتم به صورت کاملاً هوشمندانه محتواهای بی ارزش و اسپمی را شناسایی نمود و بر کار متخصصان و کارشناسان سئو و تولید محتوا تاثیر عمیقی گذاشت؛ به شکلی که خیلی از آنها مجبور به بازبینی و تغییر در استراتژی های خود در جهت رعایت استانداردهای گوگل شدند. الگوریتم Panda تجربه کاربری را بهبود بخشید و کیفیت تولید محتوا را بر کمیت آن برتری داد!
نظر گوگل درباره الگوریتم پاندا چیست؟گوگل این الگوریتم را اینگونه معرفی کرده است:
پاندا الگوریتمی است که به طور کلی روی سایت ها اعمال می شود و به یکی از سیگنال های اصلی رتبه بندی ما تبدیل شده است. کیفیت یک سایت را اندازه گیری می کند که می توانید در دستورالعمل های ما بیشتر در مورد آن بخوانید. پاندا به گوگل اجازه می دهد تا کیفیت را در نظر بگیرد و بر اساس آن رتبه بندی را تنظیم کند.
12. الگوریتم تازگی (Freshness): نوامبر 2011 الگوریتم تازگی (Freshness) هم تغییر مهمی سیستم رتبه دهی گوگل ایجاد کرد و هدفش نمایش محتواهای بروز و مرتبط با نیاز کاربر بود. فرشنس با مهم شمردن دو فاکتور زمان و جدیدبودن اطلاعات، موجب تغییر در حدود 35 درصد از نتایج جستجو شد؛ به ویژه در حوز هایی نظیر اخبار، رویدادهای زنده، موضوعات ترند و مورد بحث محصولات با تغییر زیاد.
گوگل با استفاده از «تازگی» تشخیص می دهد که کدام جستجوها نیاز به پاسخ های تازه تری دارند و آن دسته از صفحات را در اولویت می گذارد که تاریخ انتشار یا بروزرسانی جدیدتری داشته، لینک های جدیدی گرفته و یا تعامل بیشتری را از کاربر می گیرند.
البته خود گوگل تایید کرد که این الگوریتم توجه اش را از محتواهای قدیمی اما با کیفیت بر نمی دارد؛ بلکه تمرکزش را بر موضوعاتی گذاشته که ذاتاً با گذر زمان دچار تغییر می شوند(کاربر به جدیدترین اطلاعات ممکن در آن حوزه نیاز دارد).
13. الگوریتم ونیز (Venice): فوریه 2012 ونیز سئو محلی را هدف گرفت! در اواخر سال 2012 این الگوریتم با تمرکرکردن بر موقعیت جغرافیایی کاربران گوگل، نتایج جستجو را بر اساس نزدیک بودن مکانی بهینه سازی کرد تا بیزینس های محلی تر شانس بیشتری برای دیده شدن پیدا کنند.
قبل از ونیز، اگر فرضاً عبارت دندان پزشکی نزدیک من را سرچ می کردید ممکن بود در عمل نتایج شهرهای دور را به شما پیشنهاد کند اما با بروزرسانی های ونیز، گوگل با تفسیر آی پی شما (نتایجی نظیر «کلیدسازی های شهرک اکباتان» برای جستجوی «کلیدسازی نزدیک من») و کلمات کلیدی مرتبط با یک مکان (نتایجی نظیر «وکیل ملکی در تهران») نتایجی متناسب موقعیت شما نشان می داد.
این تغییر همانطور که حدس می زنید تجربه کاربر را متحول کرد و بهبود بخشید. وینز همچنین یک فرصت طلایی و بی سابقه برای کسب و کارهای محلی کوچک هم در جهت رقابت و دیده شدن فراهم آورد. البته موتور گوگل برای اثبات صحیح بودن اطلاعاتش، کسب و کارها را ملزم به ثبت موقعیت و اطلاعات کسب و کارشان در ابزار Google Business Profile نمود تا از سوء استفاده ها تا حد ممکن جلوگیری شود. این یک تحول درخشان در تجربه کاربری و یک اتفاق بزرگ برای سئو محلی بود!
14. الگوریتم پنگوئن (Penguin): آوریل 2012 الگوریتم پنگوئن (Penguin) هم یک الگوریتم انقلابی بود! گوگل با این الگوریتم به سراغ تکنیک های کلاه سیاه سئو رفت. پنگوئن به مثابه یک مامور سخت گیر پلیس، سایت هایی که از روش های غیر طبیعی مثل لینک سازی اسپمی (مانند خریدن بک لینک یا تبادل لینک های بی کیفیت) و یا پرکردن یک صفحه با تکرار مصنوعی و زیاد کلمات کلیدی یا همان Keyword Stuffing استفاده می کردند را جریمه کرد!
قبل از آمدن پنگوئن بعضی وب سایت ها با محتوای ضعیف و گرفتن لینک در تعداد خیلی بالا، جایگاه های برتر را اشغال می کردند اما با عرضه شدن این الگوریتم ورق برگشت! گوگل متخلف ها را شناسایی کرد و صفحاتشان را به رتبه های پایین تر فرستاد (و یا حتی از نتایج خارج کرد).
نکته جالب ماجرا اینجاست که پنگوئن در ابتدا تنها لینک های ورودی را بررسی می کرد اما در آپدیت های بعدی خود (مثل نسخه 4 در سال 2016) به قسمتی از هسته الگوریتم گوگل بدل شد. این مسئله موجب رفتار کمتر هیجانی پنگوئن شد؛ یعنی مثلاً به جای حذف کامل سایت از نتایج، تاثیر لینک سازی اسپمی را تا حد خیلی بالایی خنثی کرد.
نظر گوگل درباره الگوریتم پنگوئن چیست؟مت کاتز، مهندس نرم افزار آمریکایی و از اعضای شرکت گوگل، درباره الگوریتم پنگوئن می گوید:
ما چیزی داریم که برای مقابله با محتوای کم کیفیت طراحی شده است. با پاندا شروع شد و سپس متوجه شدیم که هنوز مقدار زیادی محتوای اسپمی وجود دارد و «پنگوئن» برای مقابله با آن طراحی شده است.
15. الگوریتم دامنه دقیق (Exact Match Domain - EMD): سپتامبر 2012 الگوریتم دامنه دقیق یا EMD با هدف مقابله با سوء استفاده ها از نام دامنه های اینترنتی که به صورت کامل با کلمه کلیدی پرجستجو مطابقت داشت به میدان آمد. پیش از آن، برخی سایت ها با انتخاب دامنه هایی با الگوی «کلمه-کلیدی.com» فقط به خاطر قرارگرفتن کلمه کلیدی در آدرس دامنه شان و علی رغم کیفیت ضعیف محتوا، رتبه های قابل توجهی داشتند. گوگل با این آپدیت خود، از تاثیر نام دامنه کاست و تمرکز را به سمت کیفیت در محتوا، کاربرپسندی و به صورت خلاصه معیارهای واقعی سئو برد تا نتایج بهتری را به مخاطبانش نمایش دهد. اشاره به نتیجه این اقدام هم که عملاً لازم نیست!
16. الگوریتم دزدان دریایی (Pirate): اوت 2012 هدف دزدان دریایی به عنوان یکی از الگوریتم های گوگل، مقابله با سایت های متخلف و اسپمی بود؛ آن دسته از وب سایت ها که محتواهای بقیه را کپی می کردند، لینک های اسپمی می ساختند و یا به هر شکلی به دنبال استفاده از نتایج روش های کلاه سیاه بودند. با استفاده از الگوریتم Pirate و با اعمال جریمه هایی قابل توجه، موتور جستجو گوگل یکبار دیگر به صورت جدی تلاش کرد تا فضای دیده شدن در وب را عادلانه تر کند و حق وب سایت هایی که محتوای با ارزش و اصیلی داشتند را به آنها برگرداند.
17. الگوریتم مرغ مگس خوار (Hummingbird): اوت 2013 مرغ مگس خوار مهم بود و تاثیر عمیقی بر نتایج جستجوی کاربر گذاشت! در ماه آگوست سال 2013 گوگل الگوریتم Hummingbird را به هدف تمرکزبخشی بر درک معنی و مفهوم از پرسش های کاربران در عوض تکیه صرف بر کلمات کلیدی عرضه کرد. این الگوریتم با الهام گرفتن از سرعت و دقت مرغ مگس خوار، موفق به بهبود پردازش پرسش های طولانی و محاوره ای (حتی مثل جستجوهای صوتی) شد و نتایج گوگل را هوشمندانه تر کرد.
باید بر این مسئله تاکید کرد که هامینگ برد پایه بسیاری از پیشرفت های بعدی گوگل در حوزه پردازش زبان طبیعی را گذاشت و قدمی اساسی به سمت هوشمندترشدن موتور جستجو بود. مت کاتز مرغ مگس خوار را عملاٌ یک بازنویسی از الگوریتم اصلی جستجوی می داند و می گوید:
مرغ مگس خوار 90 درصد از تمام جستجوها را تحت تأثیر قرار می دهد اما معمولاً فقط تا حدی! به این دلیل که این سند خاص مربوط به چیزی نیست که کاربر دقیقاً جستجو کرده است. زیرا ممکن است آنها گفته باشند «خوب گوگل! حالا چطور می توانم یک روتاباگا(گیاه) را در فضا قرار دهم». آنچه واقعاً مهم است نحوه قرارگرفتن روتاباگا در فضا است؛ نه اینکه آن شخص دقیقاً چگونه می تواند!
18. الگوریتم کبوتر (Pigeon): جولای 2014 الگوریتم کبوتر برای بهبود تشخیص ارتباط و کیفیت محتوایی طراحی و عرضه شد. این الگوریتم بر درک بهتر نیت و نیاز کاربر (intent) و ارزیابی دقیق تر صفحات وب متمرکز بود تا گوگل بتواند با بهره از آن نتایجی طبیعی تر ارائه کند. نام «کبوتر» احتمالاً به نقشه های محلی و دقت در نمایش موقعیت های جغرافیایی اشاره دارد؛ چراکه این الگوریتم بر جستجوهای لوکال و مبتنی بر موقعیت مکانی کاربر تاثیر ویژه ای داشت داشت.
19. الگوریتم موبایل فرندلی (Mobile-Friendly): آوریل 2015 موبایل فرندلی به صورت خلاصه دنبال آن بود که تجربه کاربری در جستجوی موبایلی بهینه شود؛ پس سایت هایی را که طراحی ریسپانسیو برای موبایل داشتند را در اولویت قرار می داد. در نقطه مقابل حتی سایت هایی که محتوایی خوبی داشتند را هم با رتبه بندی ضعیف تر ملزم به ارائه واکنشگرا کرد. این آپدیت مجدداً اهمیت روزافزون استفاده از موبایل را یادآوری کرد و سایت ها را مجبور کرد تا با سازگارکردن خود با صفحه نمایش های کوچک همچنان در رقابت برای رتبه بهتر باقی بمانند.
20. الگوریتم رنک برین (RankBrain): اکتبر 2015 در اکتبر 2015، الگوریتم RankBrain عرضه شد و اتفاقات بزرگی را رقم زد. سیستم هوش مصنوعی و ماشین لرنینگ رنک برین به عنوان قسمتی از الگوریتم اصلی و اساسی گوگل کار می کند و هدف آن هم در بهتر معنی کلماتی هستند که سرچ می شوند، حتی اگر آن عبارت مبهم و ناشناخته باشد!
سیستم الگوریتم رنک برین با تحلیل الگوهای جستجو و ارتباط میان کلمات، نتایج مرتبط تر ارائه می دهد و به مرور و با یادگرفتن از رفتار کاربران، هوشمندتر می گردد. این آپدیت مهم بود؛ چراکه تاثیر عمیقی بر سئو و ارائه پاسخ های طبیعی گذاشت.
21. الگوریتم صاریغ (Possum): سپتامبر 2016 هدف از صاریغ به عنوان یکی از الگوریتم های گوگل، تشخیص محتواهای تکراری و یکسان در نتایج جستجو بود. این الگوریتم با الهام گرفتن از عملکرد صاریغ (حیوانی که خودش را به مردن می زند) تمرکزش را بر شناسبب صفحه هایی گذاشت که با ارائه ظاهری مشابه اما محتوایی بی ارزش ور کپی شده، برای گول زدن گوگل تلاش می کنند. صاریغ تنوع و کیفیت محتواهایی که گوگل به کاربر نشان می دهد را بالا برد.
22. الگوریتم فرد (Fred): مارس 2017 الگوریتم فرد یک روش هوشمندانه و کاربردی برای حل مسئله های دشوار و پیچیده تر محاسباتی است. فرد با ترکیب ایده های خلاقانه تر از نظریه گراف و یادگیری ماشین، سعی بر بهینه کردن فرایندهای تصمیم گیری دارد. این الگوریتم با الهام از طبیعت و رفتارهای انسانی طراحی شد و می تواند در موقعیت های مختلف، از تحلیل داده های بزرگ تا شبیه سازی سیستم های پویا، یک عملکرد انعطاف پذیر و دقیق ارائه بدهد. فرد سرعت بالایی در پردازش اطلاعات دارد و به واسطه ساختارش تطبیقی خود، می تواند با شرایط متغیر سازگار شود و راه حل های نوآورانه ای پیشنهاد بدهد.
23. الگوریتم پاپ آپ مزاحم (Intrusive Interstitial Penalty): ژانویه 2017 هدف گوگل از انتشار الگوریتم Intrusive Interstitial Penalty در ابتدای سال 2017 منتشر شد تا صفحه هایی از وب که با بازکردن پنجره های ناخواسته (پاپ آپ)، تجربه کاربری با اخلال رو به رو می کنند جریمه می کند. هدف از آن هم حفظ کردن تعادل میان تبلیغات و ارائه محتوای قابل دسترس به کاربران است.
24. الگوریتم ای-ای-ای-تی (E-E-A-T): آگوست 2018 بر پایه اطلاعات وب سایت MOZ، رویکرد E-E-A-T (که بعضاً به اشتباه الگوریتم هم خوانده می شود) به اختصار از تجربه، تخصص، اعتبار و قابل اطمینان بودن، بر اساس مجموعه ای از راهنماهای کیفی تشکیل شده که موتور جستجو برای بررسی محتوا، به ویژه محتواهایی که با سلامت انسان، امور مالی و امنیت در ارتباط هستند به کار می برد. هدف آن اطمینان از نمایش نتایجی قابل اطمینان و اطلاعاتی کاربردی برای این دسته از تاپیک های YMYL می باشد. هر کدام از حروف آن به عنوان نماینده هایی از فاکتورهای زیر هستند:
فاکتور تجربه (Experience)فاکتور تخصص (Expertise)فاکتور اعتبار (Authoritativeness)فاکتور اعتماد (Trustworthiness)گوگل با این رویکرد بر محتوایی که توسط متخصصان نوشته می شود، از منابع معتبر و قابل اعتماد بیاید و به مخاطبانش اطلاعات دقیق و مفیدی ارائه می دهد تمرکز دارد. گوگل با این دیدگاه در پی این است که نتایج نه فقط پاسخگوی نیاز کاربر باشد بلکه از موضع اعتبار و تخصص هم قابل اتکا باشد. تا همین امروز البته، میزان پاسخ دهی این الگوریتم محل بحث میان متخصصان برجسته سئو در دنیا است!
در جدول زیر هدف از هر یک از این معیارها بررسی به همراه یک مثال آورده شده است.
معیارشرح معیارمثال از کاربرد معیارتجربهآیا نویسنده تجربه عملی و شخصی در موضوع دارد؟یک پزشک که مقاله ای دربارهٔ درمان بیماری می نویسدتخصصآیا نویسنده دانش تخصصی و حرفه ای در حوزه مد نظر دارد؟یک مهندس نرم افزار که راهنمایی فنی درباره برنامه نویسی نوشتهاعتبارآیا نویسنده را به عنوان منبع معتبر در آن حوزه می شناسند؟یک دانشگاه معتبر که تحقیقات علمی منتشر می کنداعتمادآیا محتوا دقیق، بی طرفانه و قابل اعتماد است؟یک سایت خبری معتبر که اطلاعات را با منابع موثق تایید می کند 25. الگوریتم برت (BERT): اکتبر 2019 برت هم از با اهمیت ترین الگوریتم های گوگل است. این سیستم مدلی پیشرفته در پردازش زبانی است که با ساختاری بر پایه ترنسفورمر، درک عمیقی از متن را ممکن می کند. برخلاف مدل های قدیمی تر که متون را خطی تحلیل می کردند، برت با توجه به «تمامی کلمات در کنار هم»، معانی پیچیده تر و حتی بعضاً ابهام های زبانی را به صورت بهتر و هوشمندانه تری درک می کند.
این الگوریتم بر اساس آموزش روی حجم گسترده ای از دیتاها، در عملکردهایی نظیر ترجمه، پاسخ به پرسش ها و تحلیل احساسات، واکنش و عملکردی طبیعی و انسانی تر دارد. متخصصان این حوزه «کلید موفقیت برت را در یادگیری دوطرفه می دانند»؛ یعنی کلمات را نه فقط بر اساس کلمات قبل و بعد، بلکه بر پایه کل متن تفسیر می کند.
26. الگوریتم تطابق عصبی (Neural Matching) سپتامبر 2019 سیستم تطابق عصبی هم یک روش هوشمندانه در پردازش زبان طبیعی است که با بهره از شبکه های عصبی عمیق، ارتباط معنایی میان جملات یا عبارات را درک می کند. الگوریتم Neural Matching به دنبال درک معنی و مفهوم پشت کلمات است و موجب شد تا ماشین هم مثل انسان متوجه آن چه سرچ می کنیم بشوند.
27. الگوریتم رتبه بندی پاراگراف (Passage Ranking): اکتبر 2020 این الگوریتم برای پیداکردن مرتبط ترین قسمت یک محتوا با پرسش کاربران طراحی شد. برخلاف مدل های سنتی که مل سند را بررسی می کردند، این سیستم با تحلیل دقیق محتوای هر پاراگراف و سنجیدن میزان و شکل ارتباط معنایی، دقیق ترین پاسخ ها را بیرون می کشد.
28. الگوریتم معیارهای اصلی وب (Core Web Vitals): ژوئن 2021 در ماه ژوئن سال 2021 گوگل معیارهای اصلی و هسته ای وب را به عنوان قسمتی از بروزرسانی «تجربه صفحه (Page Experience)» معرفی کرد. این معیارها 3 فاکتور مهم زیر را اندازه می گیرند:
سرعت بارگذاریپاسخگویی به تعاملات کاربرثبات بصریگوگل با تاکید بر این معیارها بر سریع تر شدن سایت ها و تجربه روان برای کاربر اصرار دارد. این معیارها از دیتاهای واقعی کاربران کروم استفاده می کند. در جدول زیر معیارهای هر فاکتور و محدودیت های آنها بررسی شده است:
فاکتورهامعیارهای هر فاکتورمحدودیت های هر معیارسرعت بارگذاریمعیار LCP یا همان بزرگترین عنصر محتواییباید در کمتر از ۲.۵ ثانیه نمایش داده شودپاسخگویی به تعاملات کاربرمعیار INP که جایگزین FID شدتأخیر کمتر از ۲۰۰ میلی ثانیه را هدف می گیردثبات بصریمعیار CLS که از جابجایی ناگهانی عناصر صفحه جلوگیری می کندباید کمتر از ۰.۱ باشد 29. الگوریتم تجربه صفحه (Page Experience Update): آگوست 2021 الگوریتم Page Experience تمرکز را بر کیفیت تعامل کاربر بر صفحه گذاشت. این آپدیت عواملی مثل سرعت بارگذاری صفحه، ریسپانسیوبودن در طراحی موبایل، امنیت سایت (SSL) و همچنین معیارهای Core Web Vitals که در قسمت قبلی معرفی شد را مورد ارزیابی قرار می دهد. در واقع گوگل با این الگوریتم سایت هایی با تجربه کاربری بهتر را در اولویت قرار می دهد که طبیعتاً و در مقیاس بزرگ نتایج خوبی برای کاربران فضای وب ایجاد می کند!
30. الگوریتم مام (MUM - Multitask Unified Model): مه 2021 الگوریتم MUM هم یک سیستم پیشرفته پردازش زبان طبیعی است که توانایی انجام چند کار را به صورت همزمان دارد! این الگوریتم وظایف مختلفی مثل ترجمه، پاسخ به سوالات، خلاصه کردن و تحلیل محتوا را به صورت یکپارچه و همزمان جلو می برد. مام درک عمیق تری از متون دارد و ارتباطات پیچیده میان مفاهیم را هم بهتر می فهمد. گوگل از این سیستم برای بهترکردن کیفیت سرچ ها و ارائه پاسخ های دقیق تر بهره می برد.
31. الگوریتم محتوای مفید (Helpful Content): آگوست 2022 گوگل با این الگوریتم یکبار دیگر رسماً اعلام کرد که «برای مردم بنویسید نه برای ربات ها». در سال 2022 الگوریتم Helpful Content آمد تا محتوای با کیفیت، کاربرپسند و ارزشمند تولید و تقویت شود. همچنین تاثیر دیگر آن، این بود که سایت هایی که برای ربات های موتور جستجو می نویسند جریمه شدند.تاکید این الگوریتم که حالا در الگوریتم های جامع تری ادغام شده، بر کسب رضایت انسان ها بودن نه استفاده از خلاهای سیستم!
32. الگوریتم بررسی محصول (Product Reviews Update): مارس 2022 الگوریتم بررسی محصول به صورت ویژه بر محتوای بررسی عمیق، دقیق و کاربرپسند متمرکز است و تلاش می کند تا صفحاتی از وب که ارائه کننده تحلیل های با کیفیت، بدون جهت گیری و مبتنی بر تجربه واقعی کاربران هستند را در اولویت نتایج بگذارد! این آپدیت موجب دسترسی مردم به اطلاعات مفید و معتبرتر و کاهش مشاهده پذیری بررسی های کم ارزش و تبلیغاتی شد!
33. الگوریتم اسپم برین (SpamBrain): سال 2022 الگوریتم اسپم برین هم یکی از سیستم های مبتنی بر هوش مصنوعی پیشرفته گوگل است که محتوای اسپمی و تقلبی را کشف و جریمه می کند. ساختار این سیستم با استفاده از ماشین لرنینگ و فنون تحلیل رفتاری، لینک های مخرب، محتواهای کپی شده و حتی ترفندهای پیچیده تر مثل کلاهبرداری های پیامکی یا روش های دستکاری رتبه بندی را هم تشخیص می دهد. هدف اسپم برین محافظت از کاربران بود در برابر سوء استفاده های آنلاین! این الگوریتم هم مدت ها است که در الگوریتم اصلی گوگل ادغام شده.
34. الگوریتم تجربه تولیدی جستجو (SGE - Search Generative Experience): مه 2023 الگوریتم SGE یکی از اقدامات نوین گوگل است که با ترکیب کردن هوش مصنوعی و دیگر فناوری های پیشرفته تلاش بر پویا و تعاملی تر کردن نتایج دارد. این روش با درک عمیق تر سوال کاربر، پاسخ های تولیدشده توسط هوش مصنوعی را به صورت خلاصه، دقیق و شخصی سازی شده در اختیارش می گذارد.
این ساختار نتایج را از منابع معتبر می گیرد و آنها را به زبانی قابل درک، طبیعی و کاربرپسند ارائه می دهد. الگوریتم تجربه تولیدی جستجو همچنین بعضاً با رسیدن به درک از مقصود، نتایج را به همراه پیشنهاد سوالات مرتبط یا به صورت خلاصه گزینه های تکمیلی به کاربر نشان می دهد. این یک گام بزرگ و تحول خواهانه به سمت آینده با هوش مصنوعی در موتور جستجوی گوگل بود!
35. الگوریتم AI Overviews (ادغام جیمینی): مه 2024 الگوریتم AI Overviews اتفاق مهمی است! در ماه می سال 2024 گوگل یک الگوریتم جدید به نام AI Overviews (با ادغام فناوری جیمینای) را معرفی کرد که در نمایش نتایج یک اتفاق و جدید را پدید آورد؛ پاسخ های خلاصه شده و هوشمندانه به صورت مستقیم در همان ابتدای SERP!
این ساختار کاربران را با دریافت سریع و در اولویت پاسخ، از کلیک بر روی لینک سایت ها هم بی نیاز می کند؛ مسئله ای که انتظار می رود آینده مفهوم سئو را دچار تحولاتی بنیادی کند!
36. اسپم آپدیت (Spam Update): در چندین مرحله تا به امروز در سال 2025 اسپم آپدیت با هدف شناسایی و کاستن از محتواهای اسپمی در نتایج طراحی شده و هر چند وقت یکبار در یک نسخه جدیدتر عرضه می شود. این الگوریتم هوشمند است و وب سایت هایی با محتواهای تکراری، لینک سازی های غیر طبیعی و یا تبلیغات فریب دهنده را هدف می گیرد. اسپم آپدیت پس از تشخیص این صفحه ها و سایت ها آن ها را با تنزل جدی رتبه و یا حذف کامل از نتایج رو به رو می کند. تا به امروز بارها نسخه های جدیدی از این الگوریتم عرضه شده.
37. آپدیت هسته (Core Update): در چندین مرحله تا به امروز در سال 2025 آپدیت هسته یا Core Update همان تغییرات بنیادی و گسترده هستند که در الگوریتم های گوگل برای بهبود دقت، کیفیت و مرتبط بودن نتایج ایجاد شده است. این آپدیت های سیستم رتبه دهی را عموماً به صورت انقلابی و تا سطح عمیقی متحول می کنند و در دوره اعمال شدن شان نوسانات قابل توجهی دامنگیر نتایج موتور جستجو می شود.
گوگل عمدتاً این دسته از آپدیت ها را بدون ارائه جزئیات فنی تر منتشر می کند. بعد از گذراندن دوران مربوط چندین Core Update حالا می توان گفت که اگر یک سایت پس از یک آپدیت هسته دچار افت رتبه چشمگیر باشد، معمولاً به این معنا است که محتوای آن دیگر با معیارهای جدید گوگل برای کیفیت و اعتبار همخوانی ندارد! ...
ادامه مطلب