AI 工具
General Translation 对 AI 工具的支持,包括 llms.txt 与 MCP 服务器
概览
我们提供多种工具,帮助你的 AI 工具与 General Translation 更好地配合使用。
llms.txt
将我们的 llms.txt 文件提供给你的 AI 工具,以便以适合 LLM 的格式快速获取我们文档的简要概览。
llms-full.txt
将我们的 llms-full.txt 文件提供给你的 AI 工具,以 LLM 友好格式获取我们文档的全部内容。
MCP 服务器
我们提供一个简单的 MCP 服务器,Cursor、Windsurf 和 Claude Code 等 AI 工具可通过它访问我们的文档。
将以下内容添加到你的 MCP 配置文件中以使用我们的 MCP 服务器。
本地 MCP 服务器
对于需要保持长连接的 AI 工具(如 Windsurf、Cursor 和 Claude Code),你可以在本地运行我们的 MCP 文档服务器。
{
  "mcpServers": {
    "generaltranslation": {
      "command": "npx",
      "args": ["-y", "@generaltranslation/mcp@latest"]
    }
  }
}Streamable-HTTP
另外,你也可以使用我们托管在 https://mcp.gtx.dev 的 MCP 服务器。
{
  "mcpServers": {
    "generaltranslation": {
      "type": "streamable-http",
      "url": "https://mcp.gtx.dev"
    }
  }
}SSE
对于不支持 streamable-http 的工具,可以改用 SSE 端点。
{
  "mcpServers": {
    "generaltranslation": {
      "type": "sse",
      "url": "https://mcp.gtx.dev/sse"
    }
  }
}使用 MCP 服务器
请确保已在 mcp 配置文件中添加 MCP 服务器。
Cursor
要在 Cursor 中使用 MCP 服务器,只需让 AI 调用 generaltranslation 工具。
例如,你可以这样对 AI 说:“使用 generaltranslation 工具来说明如何使用 <T> 组件。”
Windsurf
要在 Windsurf 中使用 MCP 服务器,请让 AI 使用 generaltranslation MCP 服务器。
例如,你可以这样对 AI 说:“使用 generaltranslation MCP 服务器来说明如何使用 <T> 组件。”
Claude Code
要在 Claude Code 中使用 MCP 服务器,请让 AI 调用 generaltranslation MCP 服务器。
这份指南怎么样?

