AI 工具
General Translation 对 AI 工具的支持,包括 llms.txt 和 MCP 服务器
概览
我们提供多种工具,帮助你的 AI 工具与 General Translation 协同工作。
llms.txt
将我们的 llms.txt 文件提供给你的 AI 工具,以便以适合 LLM 的格式简要概览我们的文档。
llms-full.txt
将我们的 llms-full.txt 文件提供给你的 AI 工具,以便以适合 LLM 的格式获取我们文档的全部内容。
MCP 服务器
我们提供一个简单的 MCP 服务器,供 Cursor、Windsurf 和 Claude Code 等 AI 工具访问我们的文档。
将以下内容添加到你的 MCP 配置文件中以使用我们的 MCP 服务器。
本地 MCP 服务器
对于需要保持持久连接的 AI 工具(如 Windsurf、Cursor 和 Claude Code),你可以在本地运行我们的 MCP 文档服务器。
{
"mcpServers": {
"generaltranslation": {
"command": "npx",
"args": ["-y", "@generaltranslation/mcp@latest"]
}
}
}Streamable-HTTP
另外,你也可以使用我们在 https://mcp.gtx.dev 上托管的 MCP 服务器。
{
"mcpServers": {
"generaltranslation": {
"type": "streamable-http",
"url": "https://mcp.gtx.dev"
}
}
}SSE
对于不支持 streamable-http 的工具,可以改用 SSE 端点。
{
"mcpServers": {
"generaltranslation": {
"type": "sse",
"url": "https://mcp.gtx.dev/sse"
}
}
}使用 MCP 服务器
请确保已将 MCP 服务器添加到你的 MCP 配置文件中。
Cursor
要在 Cursor 中使用 MCP 服务器,只需让 AI 使用 generaltranslation 工具。
例如,你可以对 AI 说:“使用 generaltranslation 工具来解释如何使用 <T> 组件。”
Windsurf
要在 Windsurf 中使用 MCP 服务器,请让 AI 调用 generaltranslation MCP 服务器。
例如,你可以对 AI 说:“使用 generaltranslation MCP 服务器来讲解如何使用 <T> 组件。”
Claude Code
要在 Claude Code 中使用 MCP 服务器,请让 AI 连接并使用 generaltranslation MCP 服务器。
本指南如何?