Otlex Help Center

整站審查

檢查全站共用設定與技術 SEO 基礎,確保網站 SEO 基礎架構正確

什麼是整站審查?

整站審查(Site Audit)檢查的是網站層級的設定,而非單一頁面。這些設定影響整個網站的 SEO 表現,是 SEO 的基礎架構。

與單頁審查的差異

項目單頁審查整站審查
檢查範圍單一頁面整個網站
檢查內容內容、Meta、Schema技術設定、檔案配置
執行時間30秒-2分鐘1-5分鐘
適用時機頁面優化、發文前檢查網站上線、定期健檢

檢查項目詳解

robots.txt

robots.txt 是告訴搜尋引擎哪些頁面可以爬取、哪些不行的檔案。

檢查項目:

項目說明影響程度
檔案是否存在根目錄是否有 robots.txt
語法正確性是否有語法錯誤
重要頁面封鎖是否意外封鎖了重要頁面
Sitemap 宣告是否包含 Sitemap 連結
重複規則是否有衝突或重複的規則

常見問題與修復:

# 錯誤範例:封鎖了所有頁面
User-agent: *
Disallow: /

# 正確範例
User-agent: *
Allow: /
Disallow: /admin/
Disallow: /private/

Sitemap: https://example.com/sitemap.xml

sitemap.xml

Sitemap 幫助搜尋引擎發現並了解網站的頁面結構。

檢查項目:

項目說明影響程度
檔案是否存在根目錄是否有 sitemap.xml
格式正確性XML 格式是否有效
URL 有效性列出的 URL 是否可訪問
lastmod 日期是否有更新日期且正確
頁面涵蓋度是否包含所有重要頁面
404 頁面是否包含已不存在的頁面

正確格式範例:

<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
  <url>
    <loc>https://example.com/</loc>
    <lastmod>2024-01-15</lastmod>
    <changefreq>weekly</changefreq>
    <priority>1.0</priority>
  </url>
  <url>
    <loc>https://example.com/about</loc>
    <lastmod>2024-01-10</lastmod>
    <changefreq>monthly</changefreq>
    <priority>0.8</priority>
  </url>
</urlset>

llms.txt

llms.txt 是給 AI 爬蟲(如 GPTBot、ClaudeBot)的指引檔案,說明網站內容供 AI 參考。

檢查項目:

項目說明影響程度
檔案是否存在根目錄是否有 llms.txt
格式正確性是否符合 llms.txt 規範
內容完整性是否提供足夠的網站資訊

基本範例:

# Example Company
> A brief description of what your company does

## About
We are a technology company focused on...

## Products
- Product A: Description
- Product B: Description

## Contact
- Website: https://example.com
- Email: contact@example.com

llms.txt 是新興標準:雖然不是所有 AI 搜尋引擎都支援,但建立這個檔案可以幫助 AI 更好地理解你的網站。

Favicon

Favicon 是顯示在瀏覽器分頁、書籤的網站小圖示。

檢查項目:

項目說明影響程度
是否存在是否有 favicon 設定
格式正確是否使用支援的格式
Apple Touch Icon是否設定 iOS 圖示
尺寸完整是否提供多種尺寸

HTTPS 與安全性

檢查項目:

項目說明影響程度
HTTPS 啟用網站是否使用 HTTPS
HTTP 導向HTTP 是否正確導向 HTTPS
混合內容是否有 HTTP 資源在 HTTPS 頁面
HSTS 設定是否啟用 HSTS
SSL 憑證憑證是否有效、未過期

其他全站檢查

項目說明
預設 Meta Tags是否有全站預設的 Title/Description 模板
語言設定html lang 屬性是否正確設定
字元編碼是否宣告 UTF-8 編碼
Viewport是否有行動裝置 viewport 設定

執行整站審查

步驟

  1. 進入「AI Search 審查」頁面
  2. 切換到「整站」分頁
  3. 確認要審查的網站(會顯示目前品牌的網址)
  4. 點擊「執行整站審查」
  5. 等待檢查完成(通常 1-5 分鐘)

審查過程

  1. robots.txt 檢查:讀取並解析 robots.txt
  2. sitemap.xml 檢查:讀取並驗證 sitemap
  3. llms.txt 檢查:檢查 AI 爬蟲指引
  4. 安全性檢查:測試 HTTPS 和安全設定
  5. 其他檔案檢查:favicon、manifest 等
  6. 生成報告:彙整所有檢查結果

解讀結果

狀態標示

狀態說明建議行動
Pass檢查通過無需處理
⚠️ Warning有改善空間建議改善
Fail有問題需要修復儘快修復
⏭️ Skip無法檢查確認權限或設定

整站健康分數

整站審查會產生一個 0-100 的健康分數:

分數範圍評級說明
90-100🟢 優秀基礎設定完善
70-89🟡 良好有小問題需處理
50-69🟠 中等有重要問題需修復
0-49🔴 待改善基礎設定有嚴重問題

優先處理順序建議

  1. 🔴 HTTPS 問題:影響排名和使用者信任
  2. 🔴 robots.txt 封鎖問題:可能導致頁面無法被索引
  3. 🟡 sitemap.xml 問題:影響爬蟲效率
  4. 🟡 404 頁面清理:浪費爬蟲預算
  5. 🟢 llms.txt 新增:提升 AI 搜尋可見度
  6. 🟢 Favicon 設定:影響較小但易修復

常見問題修復指南

robots.txt 不存在

在網站根目錄建立 robots.txt 檔案:

User-agent: *
Allow: /

# 封鎖不需要索引的目錄
Disallow: /admin/
Disallow: /api/
Disallow: /private/

# Sitemap 位置
Sitemap: https://yoursite.com/sitemap.xml

sitemap.xml 包含 404 頁面

  1. 檢查報告中列出的 404 URL
  2. 從 sitemap.xml 中移除這些 URL
  3. 如果使用 CMS,重新生成 sitemap
  4. 重新執行整站審查確認

HTTP 未導向 HTTPS

在伺服器設定中加入導向規則:

Apache (.htaccess)

RewriteEngine On
RewriteCond %{HTTPS} off
RewriteRule ^(.*)$ https://%{HTTP_HOST}%{REQUEST_URI} [L,R=301]

Nginx

server {
    listen 80;
    server_name example.com;
    return 301 https://$server_name$request_uri;
}

缺少 llms.txt

在網站根目錄建立 llms.txt 檔案,內容參考上方範例。

定期執行建議

情況建議頻率
網站穩定運作每月一次
近期有技術變更變更後立即執行
網站改版後改版後立即執行
發現索引問題立即執行排查

下一步

On this page