AI 工具

General Translation 对 AI 工具的支持,包括 llms.txt 与 MCP 服务器

概览

我们提供多种工具,帮助你的 AI 工具与 General Translation 更好地配合使用。

llms.txt

将我们的 llms.txt 文件提供给你的 AI 工具,以便以适合 LLM 的格式快速获取我们文档的简要概览。

llms-full.txt

将我们的 llms-full.txt 文件提供给你的 AI 工具,以 LLM 友好格式获取我们文档的全部内容。

MCP 服务器

我们提供一个简单的 MCP 服务器,Cursor、Windsurf 和 Claude Code 等 AI 工具可通过它访问我们的文档。

将以下内容添加到你的 MCP 配置文件中以使用我们的 MCP 服务器。

本地 MCP 服务器

对于需要保持长连接的 AI 工具(如 WindsurfCursorClaude Code),你可以在本地运行我们的 MCP 文档服务器。

mcp.json
{
  "mcpServers": {
    "generaltranslation": {
      "command": "npx",
      "args": ["-y", "@generaltranslation/mcp@latest"]
    }
  }
}

Streamable-HTTP

另外,你也可以使用我们托管在 https://mcp.gtx.dev 的 MCP 服务器。

.mcp.json
{
  "mcpServers": {
    "generaltranslation": {
      "type": "streamable-http",
      "url": "https://mcp.gtx.dev"
    }
  }
}

SSE

对于不支持 streamable-http 的工具,可以改用 SSE 端点。

.mcp.json
{
  "mcpServers": {
    "generaltranslation": {
      "type": "sse",
      "url": "https://mcp.gtx.dev/sse"
    }
  }
}

使用 MCP 服务器

请确保已在 mcp 配置文件中添加 MCP 服务器。

Cursor

要在 Cursor 中使用 MCP 服务器,只需让 AI 调用 generaltranslation 工具。

例如,你可以这样对 AI 说:“使用 generaltranslation 工具来说明如何使用 <T> 组件。”

Windsurf

要在 Windsurf 中使用 MCP 服务器,请让 AI 使用 generaltranslation MCP 服务器。

例如,你可以这样对 AI 说:“使用 generaltranslation MCP 服务器来说明如何使用 <T> 组件。”

Claude Code

要在 Claude Code 中使用 MCP 服务器,请让 AI 调用 generaltranslation MCP 服务器。

这份指南怎么样?

AI 工具