لیست تمامی الگوریتم های گوگل و آپدیت های آن
حتما اسم الگوریتم های گوگل تا به حال به گوشتان خورده : الگوریتم پاندا، الگوریتم پنگوئن، الگوریتم مرغ مگس خوار، الگوریتم رنک برین، الگوریتم فرد و غیره همگی توسط کمپانی گوگل به منظور بهینه سازی موتور جستجوگر گوگل، ساخته و پرداخته شده اند و علاوه بر این تاکنون آپدیت های بسیاری نیز از طرف گوگل بر روی آنها اعمال شده است.
در واقع الگوریتم های گوگل برنامه های کامپیوتری هستند که دارای توابع و فرمول های ریاضی هستند و با کمک خزنده های گوگل محتویات سایت ها را گردآوری، تجزیه تحلیل و طبقه بندی می کنند، هدف گوگل از اینکار این است که بهترین و مناسب ترین نتیجه را برای هر کوئری (Query) یا درخواست، تحویل کاربر بدهد.
گوگل معتقد است که فرآیند جستجو باید به بهترین شکل ممکن انجام شود، به همین منظور با ترکیبی از الگوریتم ها و سیگنال های رتبه بندی، صفحات وب را براساس کیفیت و کمیت محتوایشان مورد بررسی قرار داده و برای قرارگیری در صفحات نتایج جستجو به آنها نمره می دهد. در حقیقت برای هر کوئری کاربران ممکن است میلیون ها صفحه وب وجود داشته باشد اما به کمک الگوریتم های گوگل، با هر بار سرچ کاربر، بهترین و با کیفیت ترین صفحات به او نمایش داده خواهد شد.
گام نخست برای تحلیل صفحات وب و نمره دهی به آنها، طراحی خزنده ها (Crawlers) و ربات های ایندکس کننده صفحات است. خزنده ها یا همان عنکبوت های گوگل (Google Spiders) از طریق ماشین GoogleBots، مدام در حال سرکشی به صفحات وب هستند و در واقع این خزنده ها تعیین می کنند که یک سایت خوب است یا خیر.
معرفی الگوریتم های گوگل
گوگل در سال 1998 توسط Larry Page و Sergey Brin به صورت رسمی شروع به فعالیت کرد. پس از آن سال تاکنون الگوریتم های گوگل پس از معرفی به طور دائم در حال به روز رسانی و تغییر هستند، در ادامه تمامی الگوریتم ها و ویژگی های آنها را به شما معرفی خواهیم کرد:
گوگل Toolbar در سال 2000 :
گوگل نوار ابزار رتبه بندی صفحات اینترنتی (TBPR) را در دسامبر سال 2000 معرفی کرد که در واقع مباحث سئو نیز از همان زمان مطرح شد.
گوگل Dance در سال 2002 :
اولین آپدیت ثبت شده گوگل در سال 2002 انجام شد، در واقع الگوریتم گوگل دنس Google Dance از همین زمان شکل گرفت.
آپدیت های سال 2003 :
گوگل در سال 2003 با تغییرات بسیاری در رابطه با سئو و بهینه سازی صفحات نتایج (SERP) همراه بود. در واقع با بروزرسانی های مختلفی از جمله آپدیت بوستون، آپدیت فلوریدا، Fritz و دومینیک، تکنیک Keyword Stuffing (استفاده بیش از حد از کلمات کلیدی) به فراموشی سپرده شد. در عوض در این آپدیت ها، توابع و فرمول های الگوریتم های گوگل رو به تکامل و پیشرفت رفتند. گوگل در این سال با معرفی دو الگوریتم جهش یافته و پیشرفته Brandy و Austin، انقلابی در عرصه سئو و رتبه بندی صفحات وب ایجاد کرد:
الگوریتم Brandy فوریه 2004 :
یکی دیگر از الگوریتم های گوگل Brandy نام دارد. انتشار این الگوریتم توسط گوگل باعث تغییران بنیادی در صفحات وب شد. برای مثال توجه بیشتر گوگل بر روی تحلیل معنایی محتوا (LSI) و مباحت انکر تکست (Anchor Text) از طریق الگوریتم بِرندی امکان پذیر شد.
الگوریتم Austin ژانویه 2004 :
فلسفه الگورتیم آستین در واقع سرکوب صفحات اینترنتی متقلب بود، علاوه بر این مباحث مربوط به Meta Tag از این زمان آغاز شد.
آپدیت های سال 2005 :
الگوریتم های گوگل در سال 2005 تمرکز خود را بر روی کیفیت لینک ها و پیوندهای صفحات وب گذاشتند، به عبارت دیگر با بهره گیری از الگوریتم جعبه شنی یا Google Sandbox، خزنده های گوگل صفحات وب دارای مزرعه لینک (Link Farm) و لینک های تقلبی را به شدت جریمه میکردند. در حقیقت گوگل مبارزه مستقیم با اسپم (Spam) را با معرفی الگوریتم جعبه شنی آغاز کرد.
فیلترهای Sand Box، مخصوص وبسایت های تازه کار است. به عبارت دیگر سایت های تازه کار بین یک بازه زمانی 2 تا 4 ماهه تحت مراقبت شدید فیلترهای گوگل SandBox هستند، به گونه ای که محتوای صفحات آنها از طریق این فیلتر تعیین کیفیت می شوند.
آپدیت های سال 2006 :
اگرچه کارشناسان گوگل نکات مربوط به سئو را مورد تحقیق قرار دادند اما در این سال هیچ گونه آپدیت رسمی در مورد الگوریتم ها از سوی گوگل منتشر نشد.
آپدیت های سال 2007 :
در سال 2007 الگوریتم های گوگل تمامی قواعد سنتی را به فراموشی سپردند. به عبارت دیگر برای رتبه بندی و امتیازدهی به صفحات وب، تنها آنالیز و تحلیل محتوای متنی در کانون توجه نبود، بلکه خزنده ها و ربات های گوگل تمامی عکس ها، ویدیوها، نقشه ها، منابع، اخبار و فایل های صوتی را رَصَد می کردند و بر مبنای آنها به صفحات وب امتیاز می دادند.
آپدیت های سال 2008 :
گوگل در سال 2008 بالاخره، پس از چند سال آزمایش از قابلیت عبارات پیشنهادی در Search Box، رونمایی کرد. البته با معرفی آپدیت Dewey، تغییراتی در مبحث صفحات نتایج و سئو به وجود آمد اما اطلاعات کاملی از جزییات این آپدیت در دسترس نیست.
آپدیت های سال 2009 + الگوریتم کافئین :
الگوریتم های گوگل در سال 2009 نیز با تغییرات بسیاری همراه بود. پس از معرفی قابلیت Real Time Search ، گوگل الگوریتم جدیدی به نام کافئین (Caffeine) را معرفی کرد. در حقیقت الگوریتم کافئین، نسل جدید معماری موتورهای جستجوگر است و به گفته خود گوگل یکی از بنیادی ترین آپدیت های این شرکت نیز می باشد.
با استفاده از الگوریتم کافئین، خزنده های گوگل قادرند به صورت زنده و مداوم اطلاعات صفحات وب را جمع آوری کرده و پس از انجام عملیات ایندکس (Index)، در کسری از ثانیه نتایج بهتر و مرتبط تری را به کاربر نشان دهد. آمار نشان دهنده این است که ایندکس کردن صفحات وب از طریق این الگوریتم 50% بهتر از روش های قدیمی است. در اصل این الگوریتم، بازسازی قواعد موتورهای جستجوگر خود گوگل است و جریمه ای برای سایت ها در پی ندارد.
آپدیت های سال 2010 + الگوریتم Mayday :
در سال 2010 گوگل امکانات جستجوگر خود را افزایش داد، برای مثال قابلیت های تبلیغاتی و برندسازی از طریق گوگل در سال 2010 بسیار پیشرفت کردند و پروژه استفاده از سوشیال سیگنال های شبکه های اجتماعی مانند فیس بوک و توییتر برای رتبه بندی وبسایت در سال 2010 توسط گوگل آغاز شد. علاوه براین الگوریتم Mayday نیز توسط گوگل معرفی شد، که از طریق آن ربات های گوگل سایت های مناسب برای کوئری های طولانی (کلمات کلیدی طولانی) را مورد ارزیابی قرار می دهند و بهترین و مربوط ترین نتایج را به کاربران نشان می دهند.
الگوریتم Mayday در واقع برای بهتر دیده شدن سایت های با ترافیک بالا، طراحی شد. فرض کنید شما یک فروشگاه اینترنتی پوشاک دارید که اقلام زیادی در آن به فروش می رسانید، بنابراین کلمات کلیدی مربوط به محتوای وبسایت شما نیز بیشتر است. در اینصورت الگوریتم Mayday دست به کار شده و با تمرکز بیشتر بر روی کلمات کلیدی مورد نظر کاربر، منحصر بفردترین گزینه را در صفحات نتایج نمایش می دهد.
شما به عنوان صاحب وبسایت باید برای هر یک از محتوای مورد نظرتان، صفحات منحصر بفرد ایجاد کنید تا الگوریتم Mayday به محتوای سایت شما جذب شود.
آپدیت های سال 2011 + الگوریتم پاندا :
10 پکیج آپدیت در سال 2011 توسط گوگل منتشر شدند که بر روی %1 الی %40 کوئری های جستجو تاثیر مستقیم گذاشتند. علاوه براین همزمان با معرفی گوگل پلاس (Google+)، گوگل از الگوریتم جدید خود به نام الگوریتم گوگل پاندا رونمایی کرد.
الگوریتم پاندا (Panda) :
هدف از توسعه الگوریتم پاندا، دسته بندی سایت های باکیفیت و دست اول برای نمایش در صفحات نتایج است. به عبارت دیگر الگوریتم پاندا به طور کامل و ریز به ریز محتوای شما را می خواند و دشمن درجه یک مزرعه لینک ها (Farm Links) و لینک های اسپم به حساب می آید.
به طور کلی الگوریتم پاندا توسط عوامل زیر خشمگین می شود :
- محتوای خلاصه و کم (Thin Content) :
وبسایت هایی که دارای محتوای متنی کم و مرتبط با موضوع هستند به شدت الگوریتم پاندا را تحریک می کنند. در واقع اگر محتوای صفحات وب به صورت خلاصه نویسی و بدون منابع لازم باشد، الگوریتم پاندا سریعا آن را از صفحات نمایش حذف می کند.
- محتوای کپی شده (Duplicate Content) :
محتوای کپی شده و دست دوم هیچگاه از چشم الگوریتم پاندا دور نمی ماند، در حقیقت این محتوا ممکن است در دو وبسایت مختلف یا در دو صفحه از یک وبسایت وجود داشته باشند. به عبارت دیگر الگوریتم پاندا اصلا از تقلب و کپی کاری خوشش نمی آید و نسبت به آن شدید ترین واکنش ها را نشان می دهد.
- محتوای بی کیفیت و بی اعتبار (Low Quality& Validity Content) :
وبسایت هایی که برای کاربران خود محتوای کم ارزش تولید کنند در تیررس جریمه الگوریتم پاندا قرار خواهند گرفت. علاوه بر این موضوعاتی که برای مخاطبان انتخاب می کنید باید از منابع و اعتبار لازم برخوردار باشند. جالب است بدانید که این الگوریتم نسبت به اشتباهات املایی و گرامری محتوای متنی نیز حساس است.
- مزرعه محتوا (Content Farming) :
اگر وبسایت دارای نویسندگان کم کیفیتی باشد و مطالب خوبی منتشر نکند، در حقیقت در حال ایجاد مزرعه محتوا می باشد. در اصل اینگونه صفحات وب فقط برای ماندن در صفحات اول گوگل، مطالبی پر از کلمات کلیدی تولید می کنند که به سرعت توسط الگوریتم پاندا شناسایی و سپس مجازات می شوند.
- بلاک شدن وبسایت :
اگر کاربران، یک وبسایت را به طور مکرر Block کرده و فعالیت آن را به گوگل گزارش کنند، الگوریتم پاندا اینکار را به عنوان کم کیفیت بودن محتوای آن سایت در نظر می گیرد.
- آگهی و تبلیغات زیاد :
اگر کاربران هنگام بازدید از صفحات وب با حجم زیادی از آگهی و تبلیغات مواجه شوند، پس از گذشت چند ثانیه با ناراحتی زیاد آن صفحه را ترک می کنند. الگوریتم پاندا نیز اصلاً این موضوع را دوست ندارد و به شدت با اینگونه صفحات برخورد می کند.
بهینه سازی صفحات وب برای در امان ماندن از الگوریتم پاندا و Page Layout:
- از تولید محتوا به صورت مزرعه ای (Farm Content) خودداری کنید.
- محتوای کاربردی، ارزشمند و معتبر تولید کنید.
- لینک ها و تبلیغات وبسایت خود را کاهش دهید.
- مطالب تکراری وبسایتتان را حذف کنید.
- مقالات نویسندگان خود را از لحاظ گرامری، املایی و قواعد دستوری اصلاح کنید.
آپدیت های سال 2012 + الگوریتم پنگوئن :
گوگل در سال 2012 آپدیت های بسیاری در مورد ارتقای عملکرد الگوریتم پاندا منتشر کرد. علاوه بر این گوگل همزمان با معرفی قانون کپی رایت هزاره دیجیتال (DMCA) گوگل از آپدیت Pirate Penalty نیز رونمایی کرد. در واقع سایت هایی که قانون کپی رایت را زیرپا می گذاشتند مشمول جریمه های سنگین آپدیت Pirate Penalty می شدند. اما مهمترین خبر در سال 2012، انتشار الگوریتم پنگوئن توسط گوگل بود.
الگوریتم پنگوئن (Penguin) :
یکی دیگر از الگوریتم های گوگل پنگوئن نام دارد. گوگل در واقع برای مقابله با تکنیک چاشنی کلمه کلیدی (Keyword Stuffing) و دستکاری لینک، متوسل به توسعه یک الگوریتم جداگانه شد.
به طور کلی الگوریتم پنگوئن از موارد زیر بسیار خشمگین می شود :
- خرید یا تهیه بک لینک تقلبی و اسپم :
خرید بک لینک یا تبادل لینک با وبسایت های کم کیفیت و بی ارزش از دید الگوریتم پنگوئن دور نمی ماند. علاوه بر این کسب اعتبار و محبوبیت غیر واقعی، توسط الگوریتم پنگوئن شناسایی شده و تبعات سنگینی را برای صفحات وب خواهد داشت.
- تکنیک چاشنی کلمات کلیدی (Keyword Stuffing) :
کلمه کلیدی در حقیقت همان کلماتی است که کاربر برای پیدا کردن یک موضوع خاص در سرچ باکس گوگل می نویسد. در گذشته استفاده از تکنیک چاشنی کلمات کلیدی بسیار رایج بود، بدین معنی که نویسندگان برای کسب رتبه مناسب در گوگل به صورت بدون معنی و پشت سر هم از کلمات کلیدی در متن استفاده می کردند. اما با ظهور الگوریتم پنگوئن، محتوای صفحات وب تا حدودی به صورت معنایی مورد بررسی کیفی قرار می گیرند.
بهینه سازی صفحات وب برای در امان ماندن از جریمه های الگوریتم پنگوئن :
- از هرگونه لینکسازی غیر طبیعی و همکاری با سایت های غیر معتبر خودداری کنید.
- تمامی لینک های اسپم و مشکوک را از طریق گوگل سرچ کنسول حذف کنید.
- از به کار بردن بیش از حد کلمات کلیدی در محتوای وبسایتتان بپرهیزید.
- با حذف تمامی لینک های جعلی دوباره اعتماد الگوریتم پنگوئن را بدست خواهید آورد.
الگوریتم Page layout :
یکی دیگر از الگوریتم های گوگل Page layout نام دارد. الگوریتم Page Layout در واقع برای برخورد با وبسایت هایی طراحی شد که تبلیغات وایرال و اسپم به خورد کاربران می دهند. اگر خاطرتان باشد برخی اوقات برای دانلود یک موزیک، ده ها صفحه تبلیغاتی به سرعت و به طور خودکار بر روی مرورگر باز می شدند که حسابی شما را عصبانی می کردند. اینگونه سایت ها پس از مدت کوتاهی توسط الگوریتم Page Layout جریمه می شوند.
آپدیت های سال 2013 + الگوریتم های Humming bird،Zebra، Payday، Phantom و Down Crowding :
سال 2013 برای گوگل، سالی پرکار به شما می آید. شرکت گوگل در این سال الگوریتم های جدیدی را به دنیای وب معرفی کرد. در ادامه به بررسی آنها خواهیم پرداخت :
الگوریتم مرغ مگس خوار (Humming Bird):
یکی از مهم ترین الگوریتم های گوگل مرغ مگس خوار نام دارد. الگوریتم مرغ مگس خوار، یک الگوریتم بنیادی است که به منظور درک منظور کاربران طراحی شده است. گوگل به کمک این الگوریتم در واقع معنی کوئری های جستجو شده توسط یک کاربر را بهتر متوجه می شود. به عبارت دیگر تا قبل از ظهور الگوریتم مرغ مگس خوار برخی اوقات کاربران از صفحات اسپم و کاملاً بی ربطی سر در می آوردند. این الگوریتم در واقع تمرکز خود را بر روی بهبود تجربه کاربران گذاشته است و تاثیر خیلی زیادی در نتایج رتبه بندی وبسایت ها ندارد.
ویژگی های الگوریتم مرغ مگس خوار :
1- جستجوی معنایی (Semantic Search):
جستجوی معنایی گوگل باعث می شود که صفحات نتایج چیزی فراتر از کوئری ها و کلمات کلیدی مورد نظر یک کاربر را به او نشان دهد. برای مثال اگر شما کلمه رستوران های تهران را در گوگل جستجو کنید، گوگل فست فود ها، کافه ها و رستوران های ایتالیایی، رستوران های چینی و غیره را نیز به صورت جداگانه به شما پیشنهاد می دهد.
علاوه بر این اگر شما کلمه ای را به اشتباه جستجو کنید، گوگل با درک منظورتان هیچگاه شما را نا امید نخواهد کرد. برای مثال اگر به جای ورزشگاه آزادی، کلمه ورزشکار آزادی را جستجو کرده باشید، گوگل باز هم متوجه منظور شما خواهد شد و نتایج مربوط به ورزشگاه آزادی را به شما نشان می دهد.
2- گراف دانش (The Knowledge Graph) :
همانطور که گفتیم گوگل با پیشنهاد عبارت های مشابه در واقع به کاربران برای رفع نیاز خود کمک می کند. برای مثال اگر کلمه کافه را در گوگل جستجو کنید، برخی کافه ها، شیرینی فروشی ها و بستنی فروشی ها در منطقه را به شما پیشنهاد می دهد.
الگوریتم Payday :
این الگوریتم برای مبارزه با کوئری های اسپم و غیر مجاز، توسط گوگل توسعه داده شده است.
الگوریتم Domain Crowding :
از طریق به حداقل رساندن دامین های مربوط به یک صفحه وب خاص و جلوگیری از خوشه بندی بیش از حد آنها، گوگل به کمک فیلترهای Domain Crowding نتایج مطلوب تری را به کاربران نشان خواهد داد.
الگوریتم Phantom :
گوگل خیلی راجع به الگوریتم Phantom صحبت نمی کند و به گونه ای همیشه در مورد آن سکوت کرده است. اما چیزی که در مورد آن مطمئن هستیم این است که الگوریتم Phantom، محتواهایی را که برای کسب جایگاه و رتبه در گوگل تولید شده باشد دوست ندارند و در مقابل رفع نیاز کردن و مفید بودن محتوا از مهم ترین ویژگی های مورد نظر این الگوریتم است. بنابراین کیفیت پایین محتوای متنی، عکس و ویدیو به شدت از مورد شماتت الگوریتم Phantom قرار می گیرد.
الگوریتم گورخر (Zebra) :
یکی دیگر از الگوریتم های گوگل گورخر یا Zebra نام دارد. الگوریتم گور خر در ماه مارچ سال 2013 توسط Matt Cutts به گوگل پیشنهاد شد، این الگوریتم در واقع وظیفه بهینه سازی شبکه های اجتماعی، به خصوص گوگل پلاس را داشت.
این الگوریتم در واقع برای بهینه سازی سئوی فروشگاه های اینترنتی توسعه یافته است، بدین معنا که معتبرترین آنها را به کاربر پیشنهاد می کند. به عبارت دیگر الگوریتم گورخر، سایت هایی که قصد کلاهبرداری و بزرگنمایی محتوای خود را دارند شناسایی و جریمه می کند.
به تعبیر دیگری همانگونه که در دنیای واقعی خطوط روی بدن گورخر، مانع از نزدیک شدن حشرات به آنها می شود. سایت های هکر و متقلبی که قصد سوء استفاده از اطلاعات کاربران را دارند نیز با فیلترهای موجود در الگوریتم گورخر، هرچه سریع تر توسط گوگل بلاک می شوند.
با رعایت نکات زیر الگوریتم گورخر شیفته سایت شما می شود :
- میزان استفاده از Popup ها و Widget ها را محدود کنید. در واقع اگر کاربران ارسال نوتیفیکیشن از سایت شما را بلاک کنند باعث عصبانیت الگوریتم گورخر خواهید شد.
- تبلیغات موجود در سایت را کاهش دهید. برخی از بزرگترین سایت های فروشگاهی در دنیا که حاوی آگهی های بیش از حد بوده اند، حدود 50% ترافیک خود را از دست داده اند.
- سازگاری وبسایت ها با موبایل و تبلت باعث رضایت کاربران و در نهایت الگوریتم گورخر از آن صفحات می شود.
- از درگاه های پرداخت امن استفاده کنید. با اینکار در واقع حسن نیت خود به الگوریتم گورخر را ثابت خواهید کرد.
- از لوگوی اینماد استفاده کنید، در حقیقت الگوریتم گورخر مدت زمان اعتبار آن ها را به دقت زیر نظر دارد.
- از کاربران بخواهید که نظر مثبت خود را درباره وبسایت شما منتشر کنند یا به عملکرد وبسایت شما امتیاز دهند.
آپدیت های سال 2014 + الگوریتم کبوتر :
گوگل در سال 2014 مهمترین آپدیت الگوریتم پاندا را منتشر کرد، علاوه بر این الگوریتم جدیدی به نام کبوتر (Pigeon) را منتشر کرد.
الگوریتم کبوتر (Pigeon) :
الگوریتم کبوتر در اصل کمک زیادی به بومی سازی کوئری های کاربران می کند. برای مثال اگر شما اهل تهران باشید و کلمه رستوران را در گوگل سرچ کنید، رستوران هایی که نزدیک مکان شما باشند برایتان نمایش داده خواهد شد ولی اگر یک فرد همان کلمه رستوران را در مشهد سرچ کند با نتایج متفاوتی روبرو خواهد شد. از آنجایی که الگوریتم پنگوئن مستقیماً با ابزار Google Map در ارتباط است، بنابراین وبسایت ها باید نکات سئوی مربوط به منطقه خودشان را رعایت کنند. برای مثال وبسایت ها باید پیوند خود با ابزار گوگل مپ را قوی تر از پیش کنند و نام و آدرس کسب و کار خود را درون آن وارد کنند.
آپدیت های سال 2015 + الگوریتم Rank Brain و Mobilegeddon :
تمرکز گوگل در سال 2015 بیشتر بر روی صفحات وب سازگار با مرورگرهای موبایل بوده است. در حقیقت گوگل اعلام کرد صفحاتی که به راحتی در موبایل و تبلت لود شوند، امتیاز مثبت دریافت می کنند و مورد تشویق موتورهای جستجوگر گوگل قرار خواهند گرفت. علاوه براین گوگل از یکی از جالب ترین الگوریتمهای خود به عنوان الگوریتم رنک برین Rankbrain، نیز رونمایی کرد.
الگوریتم Rank Brain :
گوگل در سال 2015 یک ماشین یادگیری برای بهبود موتورهای جستجوگر خود طراحی کرد. این ماشین در واقع یک هوش مصنوعی (Artificial Intelligence) است که هر روز در حال مطالعه و تحلیل رفتار انسان ها می باشد. به عبارت دیگر الگوریتم Rank Brain از طریق مشاهده رفتار ما انسان ها و یادگیری ماشین چیزهای بسیاری را فرا می گیرد.
برخی از اندیشمندان حوزه کامپیوتر در واقع الگوریتم رنک برین را جزئی از پروژه الگوریتم مرغ مگس خوار می دانند، اما در اکثر محافل آن را به عنوان یک الگوریتم مستقل میشناسند. الگوریتم Rank Brain در اصل به عنوان یک مغز متفکر، نمایه ای از میلیاردها وبسایت در خود دارد به گونه ای که اگر صفحات وب حتی فاقد کوئری (Query) مورد نظر کاربر باشند، باز هم به کاربر نشان داده خواهد شد.
در واقع حضور الگوریتم Rank Brain زمانی احساس می شود که کوئری یا کلمه کلیدی خیلی خاص و یونیک باشد، برای مثال اگر شما کلمه ای را به صورت اشتباه تایپ کنید، گوگل به شما نشان می دهد که دقیقا از چه کلماتی برای جستجو استفاده کرده است. به عبارت دیگر اگر زبان کیبورد خود را به فارسی تغییر دهید و What is Google Algorithm را تایپ کنید، علی رغم اینکه زبان جستجوی شما کاملا نامفهوم و اشتباه است ولی به کمک الگوریتم Rank Brain گوگل منظور شما را به طور کامل متوجه می شود!
حساسیت های الگوریتم Rank Brain :
1- حساس به CTR :
الگوریتم Rank Brain فوق العاده زیاد به نرخ کلیک (CTR) صفحات وب توجه می کند، بنابراین سعی کنید محتوا، عکس ها، ویدیو ها و لینک های تبلیغاتی همگی به هم مربوط باشند و حول یک کلمه کلیدی خاص ایجاد شده باشند. از این طریق در واقع کاربران بیشتری به روی صفحات وب سایت شما کلیک خواهند کرد و الگوریتم رنک برین متوجه مفید بودن سایت شما می شود که در نهایت باعث بهبود رتبه شما در صفحات نتایج می شود. همچنین می توانید با استفاده از توضیحات متا (Meta Description) و عنوان جذاب، کاربران را به مشاهده و کلیک بر روی وبسایت خود تحریک کنید.
2- نرخ پرش کاربران (Bounce Rate) :
در واقع اگر کاربران پس از چند ثانیه به این نتیجه برسند که محتوای وبسایت شما برایشان مفید نیست و آن را ترک کنند، شما مورد خشم الگوریتم Rank Brain قرار خواهید گرفت. بنابراین سعی کنید محتوای خود را به صورت متمرکز گسترش دهید به گونه ای که مخاطب را برای چند دقیقه در سایت نگه دارید.
3- بازگشت کاربر به صفحه نتایج :
اگر کاربران صفحات وبسایت شما را باز کرده و با کمی اسکرول دوباره به صفحه موتورهای جستجو گر برگردند، استنباط الگوریتم رنک برین از این موضوع این است که مطالب و محتوای وبسایت، مشکل و نیاز کاربران را برطرف نمی کند، بنابراین شما شایستگی حضور در صفحات اول نتایج گوگل را ندارید. البته می توانید با تولید محتوای جامع و جذاب، کاربران را مدت زمان بیشتری در وبسایت خود نگه دارید. همچنین می توانید با لینک دادن به مطالب مشابه، مانع از خروج آنی کاربر شوید.
آپدیت های سال 2016 + الگوریتم Possum :
الگوریتم موش کور (Possum) :
الگوریتم پاسم یا موش کور، در واقع برای رفع نقاط ضعف الگوریتم کبوتر ایجاد شد. الگوریتم کبوتر در واقع باعث ایجاد پیوند جغرافیایی کاربران و کسب و کارهای مربوط به یک منطقه می شود اما اگر آدرس کسب و کار خارج از منطقه زندگی کاربران باشد، وبسایت آن کسب و کار عملاً از چشم الگوریتم کبوتر دور مانده و در صفحات نتایج گوگل جایی نخواهد داشت.
اما گوگل برای رفع این مشکل الگوریتم موش کور را معرفی کرد، که در واقع با بهینه سازی سئوی محلی (Local SEO) آن دسته از کسب وکارهایی که به لوکیشن کاربر نزدیکتر باشند در اولویت گوگل قرار خواهند گرفت. به عبارت دیگر در الگوریتم موش کور، رتبه بندی صفحات وب بر اساس لوکیشن کاربران تعیین می شود، علاوه بر این سایت هایی که به طور اسپم وار سئوی محلی تولید می کنند را نیز جریمه می کند.
آپدیت های سال 2017 + الگوریتم Fred :
گوگل در سال 2017 آپدیت های جزئی بسیاری را منتشر کرد، اما یک الگوریتم جدید به نام Fred را نیز معرفی کرد.
الگوریتم Fred :
اگرچه گوگل خیلی واضح درباره Fred صحبت نکرده است اما کارشناسان سئو معتقدند که فرد یک الگوریتم جدید نیست و در واقع مجموعه ای از بروز رسانی ها کیفی برای الگوریتم های سابق می باشد. در حقیقت بنا به گفته مهندس شرکت گوگل به نام Gary lllyes، از این به بعد هر آپدیتی که اسم ندارد به عنوان Fred در نظر می گیریم.
به عبارت دیگر تمامی خصوصیت های الگوریتمی گوگل در Fred بهینه سازی شده است تا به صورت دقیق با وبسایت هایی که محتوای کم ارزش و بی کیفیت تولید می کنند، برخورد کند. علاوه بر این گوگل از طریق Fred نظارت بیشتری بر روی لینک های نامعتبر و جعلی خواهد داشت.
برخی از متخصاصان سئو نیز بر این باورند که Fred نسبت به آگهی های تبلیغاتی نیز حساس است، بنابراین سایت هایی که مدام کاربران را با آگهی های تبلیغاتی کلافه می کنند نیز مورد هدف و جریمه Fred خواهند گرفت.
آخرین آپدیت در سال 2019 + الگوریتم BERT :
در حقیقت الگوریتم BERT یک کامپیوتر انسانی است که منظور کوئری ها را بهتر متوجه می شود. در گذشته گوگل کوئری مورد نظر کاربران را واژه به واژه معنی می کرد و پس از آن صفحات مربوط به آن را به نمایش می گذاشت، اما امروزه با کمک الگوریتم BERT، گوگل قادر است منظور کلی زبان انسان ها را متوجه شود. به عبارت دیگر با معرفی الگوریتم BERT، گوگل دیگر همانند یک ربات عمل نمی کند بلکه مانند یک انسان می تواند کوئری های پیچیده و جدید را درک کند.
کلمه BERT مخفف Bidirectional Encoder Representations from Transformers است که در واقع یک فرآیند یادگیری و پردازش زبان طبیعی (Natural Language Processing) می باشد.
همه ما بعضی اوقات منظور یک شخص یا یک متن را متوجه نمی شویم و پیام نهفته در آن را درک نمی کنیم. این موضوع در مورد محتوای منتشر شده در صفحات وب نیز صدق می کند، الگوریتم برت با قابلیت دو وجهی (Bi-Directional) بودن قادر است تمامی کلمات، ضمایر، حروف اضافه، حروف نشانه و بقیه قواعد دستوری را درک کند و از این طریق نتایج مرتبط تری به کاربران ارائه دهد.
برای مثال اگر قبلاً ،کلمه کتاب های ورزشی برای بزرگسالان را در گوگل سرچ می کردید، ممکن بود صفحات مربوط به کتاب های ورزشی کودکان نیز به شما نمایش داده می شد. اما بعد از ظهور الگوریتم BERT، گوگل درک می کند که ورزش بزرگسالان و ورزش کودکان دو مقوله کاملاً مجزا محسوب می شوند، بنابراین نتایج بدست آمده مرتبط تری را به کاربران ارائه می کند.
با چه راهکارهایی دل الگوریتم BERT را بدست آوریم؟
بنا به گفته کارشناسان سئو و مهندسین گوگل، امکان اینکه یک روزه الگوریتم BERT را عاشق خود کنید به هیچ وجه وجود ندارد! تنها کاری که می توان برای این موضوع انجام داد این است که محتوای ارزشمند و عاری از هرگونه اشتباه گرامری برای کاربران تولید کنید، به گونه ای که نیاز آنها را به طور کامل برطرف نماید.
کلام آخر
در این مقاله آپدیت ها و الگوریتم های گوگل را به طور کامل به شما معرفی کردیم، علاوه بر این ساز و کار هر کدام از الگوریتم ها را مورد بررسی قرار دادیم و راهکارهایی برای بهینه سازی صفحات وب برای سازگاری با هر کدام از این الگوریتم ها به شما ارایه کردیم. با مطالعه این مقاله و رعایت کردن راهکارهای موجود درآن ، هیچ وقت مورد جریمه گوگل قرار نخواهید گرفت.
دیدگاهتان را بنویسید
برای نوشتن دیدگاه باید وارد بشوید.