# overview: AI 编程 URL: https://generaltranslation.com/zh/docs/overview/ai-tools.mdx --- title: AI 编程 description: 面向 AI 编码工具的资源,包括 llms.txt 和 MCP 服务器 --- 我们提供了多种资源,帮助你的 AI 工具更好地与 General Translation 配合使用。 ## llms.txt ### llms.txt 向你的 AI 编码工具提供我们的 [llms.txt](/llms.txt) 文件,即可获取一份采用 LLM 友好格式编写的文档摘要。 ### llms-full.txt 将我们的 [llms-full.txt](/llms-full.txt) 文件提供给你的 AI 编码工具,即可获取采用 LLM 友好格式的完整文档内容。 ## MCP 服务器 我们提供了一个简易的 MCP 服务器,供 Cursor、Windsurf 和 Claude Code 等 AI 工具访问我们的文档。 ### 配置 MCP 服务器 #### 本地 MCP 服务器 对于需要保持持久连接的 AI 工具,例如 **Windsurf**、**Cursor** 和 **Claude Code**,你可以在本地运行我们的 MCP 文档服务器。 ```json title="mcp.json" copy { "mcpServers": { "generaltranslation": { "command": "npx", "args": ["-y", "@generaltranslation/mcp@latest"] } } } ``` #### Streamable-HTTP MCP 否则,你也可以使用我们托管在 `https://mcp.gtx.dev` 的 MCP 服务器。 ```json title=".mcp.json" { "mcpServers": { "generaltranslation": { "type": "streamable-http", "url": "https://mcp.gtx.dev" } } } ``` #### SSE MCP 对于不支持 streamable-http 的工具,可以改用 SSE 端点。 ```json title=".mcp.json" { "mcpServers": { "generaltranslation": { "type": "sse", "url": "https://mcp.gtx.dev/sse" } } } ``` ### 使用 MCP 服务器 #### Cursor 要在 Cursor 中使用 MCP 服务器,请让 AI 使用 `generaltranslation` 工具。 例如,你可以这样对 AI 说:“使用 `generaltranslation` 工具说明如何使用 `` 组件。” #### Windsurf 要在 Windsurf 中使用 MCP 服务器,请让 AI 使用 `generaltranslation` mcp 服务器。 例如,你可以对 AI 说:“使用 generaltranslation mcp 服务器解释如何使用 `` 组件。” #### Claude Code 要在 Claude Code 中使用 MCP 服务器,请让 AI 使用 `generaltranslation` MCP 服务器。