سئو تکنیکال مجموعه ای از اقدامات فنی است که باعث میشود گوگل بتواند صفحات سایت را بهتر بخزد (Crawl)، بهتر تحلیل کند، بهتر رندر کند و در نهایت آن ها را با سرعت و کیفیت بالاتر ایندکس کند. سئو تکنیکال (Technical SEO) ستون فقرات هر وبسایت حرفه ای است.
اگر سئو را یک ساختمان در نظر بگیریم، سئو تکنیکال همان پی و اسکلت سازه است؛ همان بخشی که دیده نمیشود اما بدون آن هیچ ساختمانی نمی ایستد و شکل نمیگیرد. سئو تکنیکال روی زیرساخت، کدنویسی، سرعت، امنیت، ساختار و رندرینگ تمرکز میکند، اگر این بخش درست نباشد:
- محتوا دیده نمیشود
- صفحات دیر ایندکس میشوند
- Crawl Budget هدر میرود
- و حتی بهترین مقالات هم در نتایج نمی آیند
و عملا باقی تلاش ها و زحمات ما به هدر رفته است. در این مقاله به آموزش جامع سئو تکنیکال پرداختیم و شما را با بخش های مختلف سئو تکنیکال و نکات آن آشنا کردیم. در پایان مقاله برای شما یک نکته طلایی آوردم که در باره سئو تکنیکال تجربه شخصی خودم رو آودم.
سئو تکنیکال در آخرین آپدیت ها تغییرات واقعی رتبه بندی
سال 2025 نقطه عطف مهمی برای سئو تکنیکال است، چرا؟
الف: آپدیت هسته (Core Updates) جدید به سرعت و کیفیت ساختار حساس تر شده اند
گوگل در آپدیت های جدیدش تمرکز خود را از صرفا “محتوا” به “کیفیت تجربه فنی کاربر” منتقل کرده است: در یک جمله: وقتی LCP، INP و CLS همگی پایین باشند، سایتت هم سریع تر لود میشود، هم واکنش پذیری بهتری دارد و هم بدون پرش نمایش داده میشود، و نتیجه اش رتبه بهتر و تجربه کاربری آرام تر است.
- LCP یعنی: بزرگ ترین بخش قابل دیدن صفحه (مثل یک تصویر بزرگ یا تیتر اصلی) بعد از ورود کاربر چقدر طول میکشد کامل لود شود.
- INP یعنی: سایتت بعد از کلیک یا تاچ کاربر چقدر طول میکشد واکنش نشان بدهد.
- CLS یعنی: صفحه هنگام لود چقدر میپرد یا جا به جا میشود.
این سیگنال ها اکنون بخشی جدی از الگوریتم هستند.
ب: Googlebot هوشمندتر شده است
- بهتر جاوااسکریپت را اجرا میکند
- سریع تر صفحات را ایندکس میکند
- رفتار crawl برای سایت های فارسی روان تر شده
- محتوای گرافیکی و رندرشده را بهتر میخواند
ج: Mobile-First دیگر یک آپشن نیست
میتوانیم بگوییم انقدر موبایل و نحوه نشان دادنش انقدر مهم شده که، نسخه موبایل سایت نسخه اصلی برای رتبه بندی است. اگر ساختار موبایل مشکل داشته باشد، کل سایت ضربه میخورد.
معماری سایت: ساختار درست یعنی مسیر درست برای خزش و ایندکس
یکی از اولین بخش های مهم سئو تکنیکال، Site Architecture است، یعنی همان ساختاری که تعیین میکند ربات ها چگونه صفحات را پیدا و تحلیل کنند. یک معماری بد میتواند:
- عمق خزش صفحات (Crawl Depth) را بالا ببرد: یعنی حتی محتوا هایی که در عمیق ترین بخش سایت هستند و با تعداد کلیک های بیشتری میتوانیم به آن ها برسیم. هرچی عمق خزش کمتر باشد (مثلا ۱ یا ۲ کلیک)، صفحه بیشتر در معرض دید ربات های گوگل قرار میگیرد و فرایند ایندکس هر یک از آن در کوتاه ترین بازه ی زمانی انجام میشود، از طرف دیگر هرچی عمق بیشتر باشد (۴–۵ کلیک به بالا)، احتمال دیده شدن صفحه کم تر میشود.
- لینک های مهم را در لایه های عمیق پنهان کند : یعنی لینک ها ناخواسته در ساختار بد سایت دفن میشوند.
- بودجه خزش را هدر بدهد: گوگل به جای صفحات مهم، وقت و انرژی خود را صرف صفحات بی اهمیت، تکراری یا عمیق میکند و در نتیجه صفحات اصلی کمتر دیده و ایندکس میشوند.
- باعث ایندکس نشدن صفحات شود: گوگل به دلیل عمق زیاد، لینک دهی ضعیف یا هدر رفتن بودجه خزش، اصلا به صفحه نمیرسد یا دیر میرسد، در نتیجه آن صفحه وارد نتایج جستجو نمیشود.
بهترین مدل های معماری برای سئو تکنیکال
1) معماری سیلویی (Silo Structure): صفحات سایت را طوری دسته بندی و لینک دهی میکنی که هر موضوع یک «سیلو» جدا داشته باشد و تمام محتواهای مرتبط فقط داخل همان سیلو به هم لینک شوند. نتیجه اش:
- قدرت موضوعی (Topical Authority) خیلی بالا میرود
- گوگل سریع میفهمد این بخش درباره ی چه موضوعی است
- صفحات مهم هر سیلو رتبه ی بهتری میگیرند
معماری سیلویی مناسب سایت های آموزشی و محتوایی است.
2) معماری پیلار-کلاستر (Pillar-Cluster): معماری پیلار-کلاستر یعنی: یک صفحه ی اصلی و جامع (Pillar) میسازی و بعد چندین صفحه ی جزئی تر و تخصصی تر (Cluster) که هر کدام یک بخش از موضوع را توضیح میدهند و همه ی این صفحات به صورت منظم و دوطرفه به پیلار لینک میدهند.
نتیجه اش:
– موضوع اصلی کاملا برای گوگل شفاف میشود
– سیگنال قدرت موضوعی (Topic Authority) بالا میرود
– صفحه ی پیلار و کلاسترها هر دو سریع تر ایندکس و بهتر رتبه میگیرند
3) معماری 3-Level: یعنی سایتت فقط سه لایه ی اصلی داشته باشد
سطح 1: صفحه ی اصلی و منوهای اصلی
سطح 2: دسته بندی ها (Categories) یا صفحات مادر
سطح 3: مقالات، محصولات یا صفحات نهایی
نتیجه: مسیر دسترسی کوتاه، عمق خزش کم، ساختار ساده و قابل فهم برای گوگل و کاربران.
مناسب سایت های فروشگاهی بزرگ
قوانین طلایی معماری سایت
- هیچ صفحه مهمی نباید بیش از 3 کلیک از صفحه اصلی فاصله داشته باشد
- مسیر Breadcrumb باید دقیق و خوانا باشد
- صفحات یتیم (Orphan Pages) باید حذف یا لینک دهی شوند
- مسیرهای تکراری و URLهای بی هدف باید حذف شوند
Crawlability و Indexability: آیا گوگل واقعا سایت شما را میبیند؟
قابل خزش بودن ( Crawlability ) یعنی: گوگل بتواند وارد صفحات سایت شما شود.
قابلیت ایندکس شدن ( Indexability ) یعنی: گوگل بتواند صفحات را ذخیره و در نتایج جستجو نمایش دهد.
اگر هر کدام از این دو مرحله درست انجام نشود:
- صفحات ایندکس نمیشوند
- صفحات دیر در نتایج می آیند
- محتوا تمام زحماتش را از دست میدهد
مشکلات رایج سایت ها در این بخش
- استفاده اشتباه از noindex
- وجود تگ های canonical اشتباه
- تکرار صفحات با پارامترهای URL
- breadcrumb اشتباه
- لینک دهی داخلی ضعیف
نشانه های مشکل در Crawlability
- افزایش Crawl Requests بدون افزایش ایندکس
- Error Coverage در سرچ کنسول
- Spike شدن Crawl Stats
- ایندکس نشدن صفحات جدید تا 10 روز
بودجه خزش ( Crawl Budget ): یکی از حیاتی ترین بخش های سئو تکنیکال
Crawl Budget یعنی این که گوگل در یک بازه زمانی مشخص، چند صفحه از سایت شما را خزیده و بررسی کند. برخلاف تصور خیلی ها، گوگل برای همه سایت ها یک بودجه خزش ثابت در نظر نمیگیرد. بلکه این بودجه بر اساس ۳ عامل اصلی تعیین میشود:
- سلامت فنی سایت (Crawl Health): اگر سایت کند باشد، خطای زیاد داشته باشد یا رندرش دشوار باشد، بودجه خزش کم میشود.
- محبوبیت و اعتبار سایت (Popularity): سایت هایی که لینک های باکیفیت بیشتری دارند، بودجه بیشتری دریافت میکنند.
- تعداد و رفتار URLها (URL Structure): سایت هایی با URLهای بی پایان، فیلترهای زیاد، صفحات تکراری یا شبه تکراری، بودجه را هدر میدهند.
مشکلات بودجه (Budget) در سایت ها
- تکرار 10 ها نسخه از یک صفحه (به علت پارامترهای فیلتر)
- بحث صفحه بندی اشتباه (?page=1, ?page=2)
- صفحات فیلتر بدون canonical
- بی توجهی به noindex در صفحات کم ارزش
- عدم استفاده از sitemap اختصاصی برای بخش های بزرگ
- ساختار اشتباه دسته بندی در فروشگاه ها
این رفتار باعث میشود گوگل انرژی خود را روی صفحات بی ارزش خرج کند و صفحات مهم دیر ایندکس شوند.
چطور Crawl Budget را بهینه کنیم؟
بهتر است که ما تو سایتمان با راه هایی که میتوانیم، بودجه خزش را بهینه کنیم تا صفحات مهم سایت بیشتر توش کراول اتفاق بیفته.
- حذف یا noindex کردن صفحات بی اهمیت
مثل:
- صفحات تگ
- صفحات پرینت
- آرشیو تاریخ
- صفحات نتایج جستجوی داخلی
- ساماندهی URLهای فیلتر
مهم ترین عامل نابودی بودجه.
- ساخت Sitemap چندبخشی
برای: محصولات، دسته ها، بلاگ، صفحات اصلی
- افزایش سرعت سایت و کاهش رندر JS
هرچه رندر سایت آسان تر باشد، گوگل صفحات بیشتری میخزد.
- بررسی Crawl Stats در سرچ کنسول
به خصوص:
- میانگین زمان پاسخگویی Average Response Time) : این عدد نشان میدهد سرور سایت به طور میانگین چقدر طول میکشد تا به درخواست های کاربران یا گوگل پاسخ بدهد. هرچه کمتر باشد، سایت سریع تر و بهتر است.
- درخواست های خزش ( Crawl Requests ): یعنی چند بار ربات های گوگل از سرورت درخواست کرده اند تا صفحات سایت را بخزند و بررسی کنند.
تنظیمات حرفه ای Robots.txt: جلوگیری از خزش اشتباه
فایل robots.txt یکی از ابزارهای کلیدی برای مدیریت خزش است. اما متاسفانه بسیاری از سایت های ایرانی آن را یا خالی میگذارند یا با نسخه های قدیمی و اشتباه پر میکنند.
Robots.txt چیست؟
یک فایل ساده متنی که مسیرهای مجاز و غیرمجاز خزش را مشخص میکند.
بهترین تنظیمات Robots.txt
روبوت ها را نباید به طور کامل محدود کرد؛ بلکه باید هدفمند مدیریت شوند.
دستورهای حیاتی:
- User-agent: *
- Disallow: /wp-admin/
- Allow: /wp-admin/admin-ajax.php
- Disallow: /*?s=
- Disallow: /search/
- Disallow: /cart/
- Disallow: /checkout/
- Disallow: /tag/
چرا این مسیرها باید بلاک شوند؟
- /cart و /checkout صفحات پویا و حساس هستند
- ?s= صفحات جستجوی داخلی را بی مورد ایندکس میکند
- /tag/ معمولا محتوای ارزشمند ندارد و duplicate ایجاد میکند
اشتباهات رایج
- بلاک کردن کل /wp-content (باعث بارگذاری نشدن تصاویر میشود)
- بلاک کردن /wp-includes
- استفاده از دستور مؤثر Disallow: / (کاملا سایت را از نتایج حذف میکند)
- بلاک کردن فایل های JS و CSS که برای رندر ضروری اند
Sitemap حرفه ای: نقشه دقیق برای گوگل
Sitemap مانند یک نقشه راه است که به گوگل میگوید “کدام صفحات مهم اند” و “ترتیب خزش دقیقا چگونه باشد”. چرا Sitemap اهمیت زیادی دارد؟
- فرآیند ایندکس را سریع تر میکند
- خطاهای محتوا را شفاف تر میکند
- برای سایت های بزرگ ضروری است
قوانین مهم Sitemap :
- ایجاد Sitemap چندلایه: به جای یک sitemap بزرگ، از چند Sitemap تخصصی استفاده کنید:
- (sitemap-posts) نقشه سایت پست ها / مقالات
- (sitemap-products) نقشه سایت محصولات
- (sitemap-categories) نقشه سایت دسته بندی ها
- (sitemap-pages) نقشه سایت برگه ها (صفحات ثابت)
- استفاده از فایل Sitemap Index: این فایل مانند فهرست کتاب است.
- حذف URLهای 301، 404 و تکراری: وجود این URLها در سایت مپ باعث کاهش کیفیت Crawl میشود.
- تنظیم اولویت ها (Priority): در وردپرس و فروشگاه ها، صفحات دسته بندی باید اولویت بالاتری داشته باشند.
سرعت سایت و Core Web Vitals: قلب سئو تکنیکال
سرعت سایت نه فقط برای تجربه کاربری، بلکه مستقیم برای رتبه بندی اهمیت دارد. سه معیار اصلی Core Web Vitals:
- LCP (بزرگ ترین عنصر قابل مشاهده)
حداقل استاندارد: کمتر از 2.5 ثانیه
- CLS (پایداری بصری صفحه)
حد استاندارد: کمتر از 0.1
- INP (زمان تعامل کلی) جایگزین FID
استاندارد: کمتر از 200ms
چطور Core Web Vitals را بهبود دهیم؟
- استفاده از CDN + کش لایه Edge: باعث کاهش TTFB میشود.
- حذف یا defer کردن JS: بزرگ ترین قاتل سرعت.
- استفاده از فرمت WebP یا AVIF: کاهش ۳۰ تا ۷۰ درصدی حجم تصاویر.
- استفاده از preconnect و preload: ویژه سایت های ایرانی با هاست داخل کشور.
- بهینه سازی فونت ها: فونت های سنگین فارسی، CLS و LCP را افزایش میدهند.
Mobile-First Indexing: نسخه موبایل، نسخه اصلی سایت شما
Mobile-First یعنی گوگل برای ایندکس و رتبه بندی فقط و فقط نسخه موبایل سایت شما را بررسی میکند، حتی اگر 80٪ ترافیک شما از دسکتاپ باشد. یعنی چه؟ یعنی اگر نسخه موبایل مشکل داشته باشد:
- محتوا دیر ایندکس میشود
- سرعت پایین می آید
- UI بهم میریزد
- رتبه از بین میرود
چک لیست Mobile-First
- ساختار یکسان بین موبایل و دسکتاپ: مخفی کردن متن، عکس یا دکمه در موبایل، خطای بسیار بزرگ است.
- فونت خوانا بین ۱۵ تا ۱۷ پیکسل: فونت ریز = تجربه کاربری ضعیف = افت رتبه موبایل.
- فاصله صحیح بین عناصر (Tap Target): دکمه ها باید حداقل ۴۸px فاصله و اندازه داشته باشند.
- نبودن Pop-up های آزاردهنده: Popupهای تمام صفحه باعث حرکت منفی صفحه و افت رتبه میشوند.
- عملکرد بالا روی اینترنت ضعیف: گوگل رفتار کاربران با اینترنت 4G و حتی 3G را بررسی میکند.
اشتباهات رایج سایت ها
- استفاده از اسلایدرهای سنگین
- مخفی کردن ۳۰ تا ۵۰ درصد محتوا در نسخه موبایل
- فونت ریز
- لود نشدن تصاویر در نسخه AMP
- نمایش اشتباه Breadcrumb در موبایل
ساختار URL و Canonical: جلوگیری از تولید محتوای تکراری
ساختار URL یکی از ساده ترین اما حیاتی ترین اصول سئو تکنیکال است. گوگل URLهای پیچیده، طولانی یا تکراری را به سختی ایندکس میکند.
ویژگی های یک URL استاندارد
کوتاه و بدون پارامترهای اضافه و بدون کاراکترهای غیرضروری و با استفاده از خط تیره (نهUnderline) و بازتاب دهنده موضوع صفحه
مثال خوب:
/technical-seo-guide/
مثال بد:
/post.php?id=325&ref=homepage&source=tag&type=mobile/
Canonical چیست؟
Canonical یک تگ است که به گوگل میگوید “نسخه اصلی این صفحه همین است”.
مثلا اگر شما ۴ نسخه از صفحه محصول داشته باشید:
- نسخه URL با فیلتر رنگ
- نسخه URL با فیلتر قیمت
- نسخه موبایل
- نسخه اصلی
با canonical باید بگویید: صفحه اصلی فقط این است.
اشتباهات رایج Canonical
- canonical کردن همه صفحات به صفحه اصلی (فاجعه)
- canonical کردن صفحات صفحه بندی
- canonical کردن صفحه A به صفحه B که اصلا یکسان نیست
- canonical در صفحات فیلتر فروشگاه
Redirect: قوانین طلایی 301 و 302 و جلوگیری از زنجیره های مرگبار
Redirect درست میتواند یک مهاجرت (Migration) را نجات دهد. اما Redirect اشتباه میتواند:
- بودجه خزش را نابود کند
- سرعت را کاهش دهد
- ایندکس را مختل کند
- حتی باعث حذف صفحه شود
تفاوت 301 و 302
✔ Redirect 301
انتقال دائمی
- برای حذف URL
- برای تغییر ساختار سایت
- برای ادغام محتوا
✔ Redirect 302
انتقال موقت
- مخصوص تست
- کمپین ها
- نسخه های آزمایشی
اشتباهات رایج Redirect
الف) ایجاد Redirect Chain
یعنی صفحه A به B، B به C، C به D
این کار سرعت را افزایش میدهد و crawl budget را کاهش میدهد.
ب) ایجاد Loop
A → B
B → A
این باعث Error های Coverage در سرچ کنسول میشود.
پ) ریدایرکت کردن صفحات بی دلیل
اگر صفحه ارزشمند است، آن را ادغام کنید، نه اینکه حذف کنید.
Duplicate Content و Cannibalization: دشمنان پنهان سئو
Duplicate Content یعنی وجود دو یا چند صفحه با محتوای شبیه و Cannibalization یعنی رقابت دو صفحه از یک سایت با هم.
هر دو مشکل باعث میشوند:
- گوگل ندانَد کدام صفحه مهم تر است
- اعتبار بین صفحات تقسیم شود
- رتبه اصلی سقوط کند
دلایل رایج Duplicate در سایت های فارسی
- تکرار محتوا در دسته بندی ها
- صفحات فیلتر (Color – Size – Price و…)
- توضیحات محصول مشابه
- تکرار صفحات با HTTP/HTTPS
- نسخه موبایل و دسکتاپ جدا
- پارامترهای URL (؟page=، ?utm=…)
راه حل ها
- استفاده صحیح از Canonical: نسخه اصلی را مشخص کنید.
- ادغام صفحات مشابه (Content Merge): اگر دو مقاله مشابه دارید، آن ها را ترکیب کنید.
- جلوگیری از انتشار صفحات بی ارزش: صفحات Search، Tag، تاریخ، آرشیو.
- ساختار درست URL: URLهای کوتاه + بدون پارامترهای اضافه.
اسکیما و داده ساختاریافته: زبان مشترک شما و گوگل
Structured Data یا همان اسکیما، زبانی است که به گوگل کمک میکند بفهمد محتوای شما درباره چیست. بدون اسکیما، گوگل فقط متن را “میخواند”. با اسکیما، گوگل متن را “میفهمد”.
چرا اسکیما برای سئو تکنیکال مهم است؟
- CTR را بالا میبرد
- شانس گرفتن Rich Snippet افزایش مییابد
- محتوای شما برای گوگل قابل تفسیر میشود
- ایندکس سریع تر و دقیق تر انجام میشود
- ارتباط موضوعی (Entity Understanding) تقویت میشود
انواع اسکیماهای ضروری
- Article برای محتوایی مثل همین مقاله
- FAQ برای سوالات متداول
- HowTo برای محتوای آموزشی
- Product برای صفحات محصول
- Breadcrumb برای ساختار سایت
- Organization برای معرفی برند
اشتباهات رایج در سایت های فارسی
- قرار دادن اسکیماهای غیرواقعی
- استفاده از FAQ در تمام صفحات (الگوریتم اسپم جریمه میکند)
- استفاده از کدهای Microdata به جای JSON-LD
- تکرار چند اسکیما مشابه
قانون طلایی: اسکیما باید حقیقتی باشد که گوگل بتواند در صفحه ببیند.” اگر در صفحه چیزی نیست، اسکیما نزنید.
HTTPS، HSTS و امنیت: چرا امنیت یک سیگنال رتبه بندی است؟
سال ها پیش HTTPS فقط برای امنیت بود. اما در 2025، HTTPS بخشی از Core Ranking Signals است. هر سایتی که HTTPS نداشته باشد:
- هشدار خطر در مرورگر میدهد
- کاربران از صفحه خارج میشوند
- نرخ پرش بالا میرود
- رتبه ها سقوط میکنند
HTTPS چیست؟
HTTPS نسخه امن HTTP است که از TLS برای رمزگذاری داده ها استفاده میکند.
به بیان ساده: بین مرورگر و سرور یک تونل امن ایجاد میشود تا اطلاعات قابل شنود یا دستکاری نباشند.
HSTS چیست؟
HSTS (HTTP Strict Transport Security)
مجبور میکند مرورگر همیشه از HTTPS استفاده کند، حتی اگر کاربر خودش HTTP تایپ کرده باشد.
این یعنی:
- امنیت بیشتر
- حذف نسخه های ناامن
- جلوگیری از حملات Man-in-the-Middle
Security Headers ضروری
- Content-Security-Policy: جلوگیری از تزریق اسکریپت
- X-Frame-Options: جلوگیری از کلیک جکینگ
- X-XSS-Protection: جلوگیری از حملات XSS
- Referrer-Policy: کنترل اطلاعات ارسالی
مشکل رایج سایت های فارسی
وجود Mixed Content
یعنی صفحه HTTPS است، اما یک عکس یا فایل از HTTP لود میشود.
این مشکل:
- امنیت را کم میکند
- سیگنال منفی به گوگل میدهد
- برخی مرورگرها صفحه را مسدود میکنند
CDN، TTFB و بهینه سازی سرور: قلب سرعت سایت
وقتی یک کاربر صفحه شما را باز میکند، اولین زمان مهم برای گوگل:
TTFB (Time To First Byte)
است.
TTFB نشان میدهد سرور شما چقدر سریع پاسخ اولیه را میدهد.
چرا CDN مهم است؟
CDN (شبکه توزیع محتوا) باعث میشود محتوای سایت از نزدیک ترین سرور به کاربر ارسال شود.
نتیجه:
- کاهش TTFB
- افزایش سرعت
- بهبود LCP
- عملکرد بهتر برای کاربران ایران/اروپا/آسیا
تفاوت سرورهای NGINX و Apache
NGINX
- سریع تر
- مناسب ترافیک بالا
- سازگار با HTTP/3
- بهترین برای Core Web Vitals
Apache
- انعطاف پذیرتر
- برای سایت های ساده
- اجرای کندتر در بار زیاد
راه های کاهش TTFB
- استفاده از CDN
- فعال کردن caching سطح Edge
- تغییر سرور به LiteSpeed یا NGINX
- استفاده از PHP نسخه بالا (PHP 8+)
- حذف افزونه های سنگین
- کاهش کوئری های دیتابیس
بهینه سازی تصاویر و رسانه ها: از WebP تا Lazy Loading
تصاویر حدود ۵۰ تا ۷۰٪ حجم یک صفحه را تشکیل میدهند. بهینه نکردن تصاویر یعنی:
- LCP بالا
- سرعت پایین
- مصرف بودجه خزش
- افت رتبه
بهترین فرمت تصویر در 2025
الف) WebP
استاندارد
70٪ حجم کمتر از JPG
ب) AVIF
نسخه فوق فشرده
تا 85٪ کاهش حجم
برای سایت های حرفه ای مناسب تر است
قوانین مهم بهینه سازی تصاویر
الف) ابعاد واقعی تصویر را تنظیم کنید
تصاویر 3000px در موبایل = فاجعه سرعت
ب) از Lazy Load استفاده کنید
اما نه برای تصویر LCP صفحه
پ) استفاده از CDN تصاویر
مثل cloudflare images یا optimole
ج) استفاده از attribute های مهم
- width
- height
- decoding=”async”
چرا Lazy Load مهم است؟
Lazy load باعث میشود تصاویر زیر fold فقط هنگام اسکرول لود شوند.
نتیجه:
- کاهش LCP
- کاهش مصرف دیتا
- تجربه روان تر
بهینه سازی JS و CSS: حذف منابع مسدودکننده رندر
جاوااسکریپت و CSS سنگین، قاتل سرعت سایت هستند. در 2025 یکی از بزرگترین دلایل LCP بالا و INP بد، دقیقا همین فایل های JS و CSS هستند. گوگل قبل از نمایش صفحه باید این فایل ها را:
- دانلود کند
- تحلیل کند
- اجرا کند
و هرچه فایل ها سنگین تر باشند، رندر صفحه دیرتر انجام میشود.
Render Blocking Resources چیست؟
منابعی مانند فایل های CSS و JS که تا زمانی که کاملا لود نشوند، مرورگر اجازه نمایش محتوا را نمیدهد.
نتیجه:
- کندی لود
- افزایش LCP
- کاهش رتبه
روش های کاهش Render Blocking
الف) استفاده از defer برای فایل های JS: این کار باعث میشود JS بعد از رندر اولیه اجرا شود.
ب) استفاده از async: مناسب برای فایل های جانبی غیرضروری.
پ) Inline کردن CSS حیاتی (Critical CSS): استفاده از ابزارها برای استخراج CSS ضروری صفحه.
ج) Minify کردن فایل های JS و CSS: حذف فضاهای خالی، کامنت ها و کدهای بلااستفاده.
چ) تجمیع فایل ها: مثلا به جای ۱۵ فایل JS، فقط یک یا دو فایل داشته باشیم.
ح) حذف اسکریپت های اضافی
- افزونه های غیرضروری
- کدهای 3rd party غیرقابل کنترل
- ابزارهای آنالیتیکس اضافی
اشتباهاتی که بیشتر سایت ها مرتکب میشوند
- قرار دادن ۴۰ تا ۶۰ فایل JS در یک صفحه
- استفاده از فونت های خارجی بدون preload
- لود اسکریپت ها در بخش Head
- بارگذاری کتابخانه های بزرگ مثل jQuery برای یک دکمه ساده
یک قانون طلایی: هر اسکریپتی که استفاده نمیکنید، دشمن سرعت سایت شماست.
سئو تکنیکال در سایت های فروشگاهی
سایت های فروشگاهی به دلیل داشتن صدها یا هزاران محصول، ساختار پیچیده تری دارند و چالش های سئو تکنیکال در آنها جدی تر است. اگر سئو فروشگاهی به صورت تکنیکال مدیریت نشود، سایت با مشکلاتی مثل:
- محتوای تکراری
- ایندکس بیش ازحد
- هدررفت بودجه خزش
- محصول زدگی (Product Cannibalization)
مواجه میشود.
مهم ترین چالش های تکنیکال در فروشگاه ها
الف) صفحات فیلتر (Faceted Navigation)
مثل:
- ?color=red
- ?size=XL
- ?price=0-500
این صفحات هزاران URL تولید میکنند.
راه حل:
- canonical به نسخه اصلی
- noindex برای پارامترهای غیرمهم
- مدیریت URL از طریق regex در robots.txt
ب) صفحات محصول تکراری
مثلا یک محصول با ۳ URL مختلف:
- URL رنگ
- URL گارانتی
- URL سایز
راه حل:
نمایش محصول در یک URL ثابت + استفاده از data layer برای ویژگی ها.
ج) ساختار دسته بندی
ساختار پیشنهادی:
/category/
/category/subcategory/
/product-name/
نه این گونه:
/post/12553/?ref=homepage&color=blue&type=discount
چ) صفحه بندی (Pagination)
- استفاده از pagination استاندارد
- بدون canonical اشتباه
- بدون تگ های noindex غیرضروری
د) سرعت صفحات محصول
پربارترین صفحات فروشگاه، صفحات محصول هستند.
بهینه سازی ها:
- تصاویر کم حجم
- جلوگیری از لود ویدیوهای خودکار
- حذف اسکریپت های غیرضروری
- CDN و cache فعال
سئو تکنیکال سایت های بزرگ (Large Websites)
سایت های بزرگ چالش های خاص خود را دارند.
وقتی هزاران یا ده ها هزار صفحه دارید، مشکل اصلی دیگر محتوا نیست،مدیریت خزش و ایندکس است.
چالش های اصلی
الف) Crawl Management
گوگل نمیتواند ۲۰ یا ۵۰ هزار صفحه را در یک روز بخزد. باید تصمیم بگیرد کدام صفحات ارزش دارند.
ب) Index Priority
صفحاتی که ساختار فنی ضعیف دارند، دیرتر ایندکس میشوند.
ج) ساختار لینک دهی داخلی
مهم ترین عامل برای مدیریت صفحات بزرگ.
راه حل های حرفه ای
- ساخت Sitemap چندبخشی + جدا کردن صفحات مهم
- هدایت لینک داخلی به صفحات جدید
- حذف صفحات کم ارزش
- تنظیم canonical دقیق
- کنترل پارامترهای URL
- کاهش عمق صفحات به کمتر از ۳ کلیک
Technical SEO Audit: مهم ترین مرحله برای رسیدن به یک سایت سالم
Audit یا بررسی تکنیکال، ستون اصلی مدیریت سایت است. بدون audit، نمیتوانید بفهمید مشکل سایت کجاست، چه چیزی درست کار میکند و چه چیزی نیاز به اصلاح دارد.
مراحل اصلی یک Technical SEO Audit کامل
مرحله 1: Crawl اولیه با Screaming Frog
تشخیص:
- صفحه های تکراری
- صفحات سنگین
- ریدایرکت های زنجیره ای
- صفحات 404
- رندر صفحات جاوااسکریپتی
مرحله 2: بررسی سرعت
ابزارهای لازم:
- PageSpeed
- Web.dev
- GTmetrix
- Cloudflare Analytics
مرحله 3: بررسی ساختار URL و Canonical
مرحله 4: بررسی Index Coverage در سرچ کنسول
مرحله 5: بررسی فایل robots.txt و sitemap
مرحله 6: بررسی رندر صفحات JS
مرحله 7: بررسی امنیت (HTTPS – HSTS)
مرحله 8: بررسی لینک داخلی و ساختار سایت
خروجی نهایی Audit
در پایان Audit باید یک لیست اولویت بندی شده داشته باشید:
High Priority
- صفحات 404
- رندرینگ JS
- سرعت و Core Web Vitals
- canonical اشتباه
- ریدایرکت های زنجیره ای
Medium Priority
- اسکیما
- امنیت
- ساختار سایت
Low Priority
- UI جزئی
- فونت ها
- تصاویر غیرضروری
- چک لیست جامع سئو تکنیکال (Technical SEO Checklist 2025)
این بخش، عصاره تمام مطالب مقاله است. اگر فقط همین چک لیست را اجرا کنید، ۷۰٪ مشکلات فنی سایت برطرف میشود.
چک لیست 20 مرحله ای مهم ترین کارهایی که باید انجام دهید:
- بررسی سلامت ایندکس
- بررسی Coverage سرچ کنسول
- پیدا کردن صفحات noindex
- پیدا کردن صفحات بدون canonical
- بررسی Crawl Stats
- چک Average Response Time
- بررسی افزایش یا کاهش ناگهانی خزش
- شناسایی URLهای بی ارزش
- بهینه سازی سرعت
- اصلاح LCP
- اصلاح CLS
- کاهش INP
- حذف JS اضافی
- استفاده از preload و preconnect
- بررسی سایت مپ (Sitemap)
- حذف صفحات 404
- حذف صفحات 301
- جدا کردن دسته ها از محصولات
- ساخت sitemap index
- بررسی Robots.txt
- جلوگیری از خزش search
- جلوگیری از خزش tag
- جلوگیری از صفحات cart، checkout
- تست خطاها در سرچ کنسول
- بررسی امنیت سایت
- فعال بودن HTTPS
- نبود Mixed Content
- وجود HSTS
- بررسی security headers
- بهینه سازی تصاویر
- تبدیل تصاویر به WebP
- استفاده از CDN
- حذف تصاویر سنگین
- lazy load صحیح
- بررسی ریدایرکت ها
- حذف Redirect Chains
- حذف Redirect Loops
- استفاده درست از 301 و 302
- ساختار URL
- کوتاه
- بدون پارامترهای اضافی
- منطقی
- یک URL برای هر مفهوم
- بررسی Canonical
- همخوانی canonical با URL واقعی
- جلوگیری از canonical اشتباه صفحات فیلتر
- بررسی canonical در دسته و محصول
- بررسی لینک داخلی
- لینک دهی به صفحات اصلی
- حذف صفحات یتیم
- استفاده از anchor مناسب
- افزایش crawl depth مناسب
- بررسی رندرینگ (JS SEO)
- تست جاوااسکریپت با ابزارهای رندر
- حذف لایه های اضافی رندر
- بررسی رندر مستقل از مرورگر
- بررسی ساختار سایت
- 3 کلیک تا هر صفحه مهم
- breadcrumb استاندارد
- دسته بندی اصولی
- بررسی صفحات بی ارزش
- تگ ها
- آرشیوها
- نتایج جستجو
- صفحات خالی
- بررسی Thin Content
- صفحات بسیار کم محتوا
- صفحات بدون ارزش
- صفحات خالی با قالب آماده
- بررسی اسکیما
- Article
- FAQ
- Breadcrumb
- Product
- HowTo
- بررسی نسخه موبایل
- فونت
- سرعت
- CLS
- عناصر کلیکی
- مشکلات محتوایی
- بررسی TTFB
- تغییر هاست
- فعال کردن CDS
- فعال کردن Cache
- استفاده از LiteSpeed
- بررسی ساختار فروشگاهی
- صفحه بندی
- مدیریت فیلترها
- URLهای محصول
- دسته بندی ها
- بررسی کیفیت محتوا
- چگالی کلمات معنادار
- ساختار عنوان ها
- بهینه سازی تصاویر
- بررسی تجربه کاربری
نتیجه گیری + نقشه 30 روزه اجرای سئو تکنیکال
در این بخش مقاله را به یک برنامه عملی تبدیل میکنیم.
مهم نیست سایت شما تازه تاسیس است یا هزاران صفحه دارد ، این نقشه ۳۰ روزه برای همه کاربردی است.
هفته اول: تشخیص مشکلات اصلی
- Crawl
- Index
- canonical
- sitemap
- robots
- صفحات یتیم
ابزارهای لازم:
Site Audit – Screaming Frog – GSC
خروجی هفته اول:
یک لیست دقیق از مشکلات High Priority
هفته دوم: سرعت و کیفیت تجربه کاربر (Core Web Vitals)
- بهبود LCP
- اصلاح CLS
- کاهش INP
- فشرده سازی JS
- فعال کردن CDN
ابزارهای لازم:
PageSpeed – Web.dev – GTmetrix – Cloudflare
خروجی هفته دوم:
افزایش محسوس سرعت سایت
آماده شدن برای ایندکس بهتر
هفته سوم: ساختار سایت و لینک دهی داخلی
- اصلاح ساختار دسته بندی
- اصلاح breadcrumb
- کاهش عمق صفحات
- لینک دهی به صفحات اصلی
- رفع orphan pages
خروجی هفته سوم:
بهبود Crawl و ایندکس صفحات مهم
هفته چهارم: امنیت، اسکیما، بهینه سازی نهایی
- فعال کردن HSTS
- مدیریت security headers
- بهینه سازی structured data
- اصلاح صفحات Thin
- آپدیت sitemap
خروجی هفته چهارم:
سایتی قابل اعتماد، سریع، سالم و کاملا آماده برای رقابت در نتایج گوگل.
جمع بندی نهایی
سئو تکنیکال ستون اصلی تمام موفقیت های سئو است. اگر این بخش برطرف شود:
- صفحات سریع تر لود میشوند
- بودجه خزش هدر نمیرود
- صفحات ارزشمند سریع تر ایندکس میشوند
- رتبه ها پایدار و قوی میشوند
- تجربه کاربری به شکل چشمگیری بهبود پیدا میکند
این مقاله یک نقشه کامل برای متخصصان سئو است تا بتوانند سایت را از پایه درست و اصولی بسازند. و همانطور که در ویکی دمی همیشه میگوییم: “اگر تکنیکال درست باشد، بقیه کارها راحت تر و موثرتر خواهند بود”
درصورت داشتن سوال یا بودن ابهام در مقاله در کامنت ها برام بنویسید؛ خیلی سریع به سوالات شما پاسخ میدهیم “ارادتمند شما ویکی دمی”

دیدگاه شما