让 JetBrains IDE 也能用上 llms.txt
JetBrains IDE 支持 MCP,但不能直接读取 llms.txt。mcpdoc 可以把 llms.txt 接到 IDE 里。
让 JetBrains IDE 也能用上 llms.txt
我平时主要用 JetBrains。它对 MCP 的支持已经有了,但碰到 llms.txt 还是差一截:IDE 不能直接把这类文档索引当成可用的数据源。
mcpdoc 刚好补上这块。它把 llms.txt 包成一个 MCP 服务器,这样 IDE 里的 AI 助手就能按 MCP 的方式去查文档,而不是靠模型自己猜。
它是怎么工作的
llms.txt 本质上是一份给 AI 用的文档索引。问题不在格式本身,而在很多工具链还没把它接进去。
mcpdoc 做的事情很直接:
- 管理你提供的
llms.txt列表 - 暴露
fetch_docs之类的 MCP 工具来读取对应文档
这样一来,JetBrains IDE 只需要连上这个 MCP 服务,就能访问 llms.txt 里的内容。整个调用链也比较清楚,至少你知道它查了什么、从哪查的。
快速上手
配置不复杂,三步就够。
1. 安装
curl -LsSf https://astral.sh/uv/install.sh | sh
2. 配置 MCP 服务器
在 JetBrains IDE 的 MCP 配置文件里加上:
{
"mcpServers": {
"langgraph-docs": {
"command": "uvx",
"args": [
"--from",
"mcpdoc",
"mcpdoc",
"--urls",
"LangGraph:https://langchain-ai.github.io/langgraph/llms.txt",
"--transport",
"stdio"
]
}
}
}
3. 给 AI 助手加使用规则
比如可以写成:
关于 LangGraph 的问题,必须使用 langgraph-docs 服务器:
- 调用 list_doc_sources 获取可用文档
- 调用 fetch_docs 读取相关内容
- 先看 llms.txt 中列出的 URL
- 再根据问题选择合适的 URL 调用 fetch_docs
实际效果
配好之后,你在 IDE 里问一句“LangGraph 有哪些 memory 类型?”,AI 助手就会先走 MCP 工具,再去拿对应的官方文档内容。
这和直接把问题丢给模型的区别很明显:答案是不是靠谱,至少有迹可循。
安全控制
mcpdoc 对访问范围做了限制。
- 远程
llms.txt默认只能访问对应域名下的资源 - 本地文件如果要放开别的域名,需要显式配置
这不算多高级,但很实用。尤其是把文档能力接进 IDE 之后,边界清楚一点总是更放心。
如果你本来就在 JetBrains 里用 AI 助手,又正好维护了一些 llms.txt 文档入口,那 mcpdoc 基本就是最省事的接法。