
Robots.txt และ sitemap.xml เป็นไฟล์สำคัญที่ช่วยควบคุมการทำงานของเครื่องมือค้นหา (เช่น Google) เมื่อเข้ามาสำรวจ (crawl) เว็บไซต์ของคุณ ทั้งสองไฟล์มีบทบาทที่แตกต่างกัน แต่ล้วนมีส่วนช่วยในการทำ SEO ดังนี้:
example.com/robots.txt) โดยเครื่องมือค้นหาจะอ่านไฟล์นี้ก่อนที่จะทำการสำรวจหน้าเว็บ หากเจอคำสั่ง Disallow ที่ระบุหน้าเว็บหรือไดเรกทอรีบางส่วน เครื่องมือค้นหาจะไม่ทำการเก็บข้อมูลหรือจัดทำดัชนีหน้าเหล่านั้นrobots.txt เพื่อป้องกันไม่ให้บอทสแกนและทำดัชนีเนื้อหาเหล่านั้นตัวอย่างการใช้งาน:
User-agent: * Disallow: /private/ Disallow: /tmp/
ในตัวอย่างนี้ เครื่องมือค้นหาจะไม่สแกนหน้าเว็บหรือไดเรกทอรีที่อยู่ใน /private/ และ /tmp/
lastmod), ความถี่ในการอัปเดต (changefreq), และความสำคัญของแต่ละหน้า (priority) ซึ่งช่วยให้เครื่องมือค้นหาสามารถสำรวจและเข้าใจโครงสร้างของเว็บไซต์ได้ง่ายขึ้นpriority) ของหน้าเว็บต่าง ๆ เพื่อบอกเครื่องมือค้นหาว่าหน้าไหนควรให้ความสำคัญมากที่สุดในการจัดทำดัชนีตัวอย่างการใช้งาน:
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
<url>
<loc>https://example.com/</loc>
<lastmod>2023-09-01</lastmod>
<changefreq>weekly</changefreq>
<priority>1.0</priority>
</url>
<url>
<loc>https://example.com/about</loc>
<lastmod>2023-08-25</lastmod>
<changefreq>monthly</changefreq>
<priority>0.8</priority>
</url>
</urlset>
ทั้ง robots.txt และ sitemap.xml ทำงานร่วมกันเพื่อช่วยให้เว็บไซต์ของคุณได้รับการจัดอันดับที่ดีขึ้นในเครื่องมือค้นหา และช่วยให้การเข้าถึงหน้าเว็บที่สำคัญเป็นไปอย่างมีประสิทธิภาพ