为什么要做一个对 AI 友好的网站

传统 SEO 优化的对象是搜索引擎爬虫。但现在越来越多的信息消费是通过 LLM 完成的——用户问 Claude 一个问题,Claude 搜索、抓取、总结,然后给出答案。

如果你的内容对 LLM 不可读,你就在这个新的信息分发渠道里隐身了。

具体做了什么

这个网站用 Astro 构建,输出纯静态 HTML,零 JavaScript。每篇文章是一个 Markdown 文件。

关键的 AI 友好措施:

  • 根目录有 /llms.txt,用 Markdown 格式列出网站结构和所有文章摘要
  • robots.txt 明确 Allow 主流 AI 爬虫(GPTBot、Claude-Web 等)
  • 语义化 HTML,内容不藏在 SPA 或 JavaScript 渲染里
  • RSS 输出,方便任何工具订阅

下一步

等内容积累到一定量,再考虑加 MCP Server,把一些结构化数据暴露为 AI 可调用的工具。

现在先老老实实写东西。