AI 工具
AI 工具的通用翻译支持,包括 llms.txt 和 MCP 服务器
概述
我们提供了多种工具来帮助您的 AI 工具与 General Translation 协同工作。
llms.txt
为您的 AI 工具提供我们的 llms.txt 文件,以获得我们文档的简要摘要,采用 LLM 友好的格式。
llms-full.txt
为您的 AI 工具提供我们的 llms-full.txt 文件,以 LLM 友好的格式获取我们文档的完整内容。
MCP Server
我们提供了一个简单的 MCP 服务器,AI 工具如 Cursor、Windsurf 和 Claude Code 可以使用它来访问我们的文档。
将以下内容添加到您的 mcp 配置文件中以使用我们的 MCP 服务器。
本地 MCP Server
对于维持持久连接的 AI 工具,如 Windsurf、Cursor 和 Claude Code,您可以在本地运行我们的 MCP 文档服务器。
{
"mcpServers": {
"generaltranslation": {
"command": "npx",
"args": ["-y", "@generaltranslation/mcp@latest"]
}
}
}
Streamable-HTTP
否则,您可以使用我们托管在 https://mcp.gtx.dev
的 MCP 服务器。
{
"mcpServers": {
"generaltranslation": {
"type": "streamable-http",
"url": "https://mcp.gtx.dev"
}
}
}
SSE
对于不支持 streamable-http 的工具,您可以改用 SSE 端点。
{
"mcpServers": {
"generaltranslation": {
"type": "sse",
"url": "https://mcp.gtx.dev/sse"
}
}
}
使用 MCP 服务器
确保您已将 MCP 服务器添加到您的 mcp 配置文件中。
Cursor
要在 Cursor 中使用 MCP 服务器,只需要求 AI 使用 generaltranslation
工具。
例如,您可以询问 AI:"使用 generaltranslation 工具来解释如何使用 <T>
组件。"
Windsurf
要在 Windsurf 中使用 MCP 服务器,请要求 AI 使用 generaltranslation
mcp 服务器。
例如,您可以询问 AI:"使用 generaltranslation mcp 服务器来解释如何使用 <T>
组件。"
Claude Code
要在 Claude Code 中使用 MCP 服务器,请要求 AI 使用 generaltranslation
mcp 服务器。
这份指南怎么样?