AI 工具

AI 工具的通用翻译支持,包括 llms.txt 和 MCP 服务器

概述

我们提供了多种工具来帮助您的 AI 工具与 General Translation 协同工作。

llms.txt

为您的 AI 工具提供我们的 llms.txt 文件,以获得我们文档的简要摘要,采用 LLM 友好的格式。

llms-full.txt

为您的 AI 工具提供我们的 llms-full.txt 文件,以 LLM 友好的格式获取我们文档的完整内容。

MCP Server

我们提供了一个简单的 MCP 服务器,AI 工具如 Cursor、Windsurf 和 Claude Code 可以使用它来访问我们的文档。

将以下内容添加到您的 mcp 配置文件中以使用我们的 MCP 服务器。

本地 MCP Server

对于维持持久连接的 AI 工具,如 WindsurfCursorClaude Code,您可以在本地运行我们的 MCP 文档服务器。

mcp.json
{
  "mcpServers": {
    "generaltranslation": {
      "command": "npx",
      "args": ["-y", "@generaltranslation/mcp@latest"]
    }
  }
}

Streamable-HTTP

否则,您可以使用我们托管在 https://mcp.gtx.dev 的 MCP 服务器。

.mcp.json
{
  "mcpServers": {
    "generaltranslation": {
      "type": "streamable-http",
      "url": "https://mcp.gtx.dev"
    }
  }
}

SSE

对于不支持 streamable-http 的工具,您可以改用 SSE 端点。

.mcp.json
{
  "mcpServers": {
    "generaltranslation": {
      "type": "sse",
      "url": "https://mcp.gtx.dev/sse"
    }
  }
}

使用 MCP 服务器

确保您已将 MCP 服务器添加到您的 mcp 配置文件中。

Cursor

要在 Cursor 中使用 MCP 服务器,只需要求 AI 使用 generaltranslation 工具。

例如,您可以询问 AI:"使用 generaltranslation 工具来解释如何使用 <T> 组件。"

Windsurf

要在 Windsurf 中使用 MCP 服务器,请要求 AI 使用 generaltranslation mcp 服务器。

例如,您可以询问 AI:"使用 generaltranslation mcp 服务器来解释如何使用 <T> 组件。"

Claude Code

要在 Claude Code 中使用 MCP 服务器,请要求 AI 使用 generaltranslation mcp 服务器。

这份指南怎么样?