AI编程-树人与鲁迅案例分享: 用trae写一个本地uv的文生图mcp服务器,直接边聊边出图边修改。 客户端配置: “volcano-image-gen”: { “com……
哈喽!伙伴们,我是小智,你们的AI向导。欢迎来到每日的AI学习时间。今天,我们将一起深入AI的奇妙世界,探索“AI编程-树人与鲁迅案例分享”,并学会本篇文章中所讲的全部知识点。还是那句话“不必远征未知,只需唤醒你的潜能!”跟着小智的步伐,我们终将学有所成,学以致用,并发现自身的更多可能性。话不多说,现在就让我们开始这场激发潜能的AI学习之旅吧。
AI编程-树人与鲁迅案例分享:
用trae写一个本地uv的文生图mcp服务器,直接边聊边出图边修改。
客户端配置:
“volcano-image-gen”: {
“command”: “uv”,
“args”: [
“run”,
“–with”,
“fastmcp”,
“fastmcp”,
“run”,
“F:/MCP/volcano_image/server.py”(这里改成你自己写的python文件路径)
]
}
原理:实际上就是mcp的客户端在使用这个mcp时就是在终端输入了uv run –with fastmcp fastmcp run F:/MCP/volcano_image/server.py.
服务端配置:
1,直接使用mcp的pythonSDK里的fastmcp模块
https://github.com/modelcontextprotocol/python-sdk/tree/main
2,参考成功案例:https://aibook.ren/archives/mcp-server-for-cursor#%E5%A6%82%E4%BD%95%E8%B0%83%E8%AF%95
3,将mcp规范和火山引擎api文生图接口喂给trae
mcp规范:https://modelcontextprotocol.io/llms-full.txt
火山引擎文生图api接口:https://www.volcengine.com/docs/6444/1340578
然后将这些资料准备好后,直接让trae将火山引擎api接口包装成一个本地mcp服务器即可。
注意点:
不要使用虚拟环境,因为本质上mcp客户端调用mcp是使用的全局环境进行的,如果你在虚拟环境中安装了server.py的依赖并测试成功了,但是在mcp客户端运行报错,基本上是因为你的python解释器路径和依赖安装的问题。改为全局环境安装依赖即可
嘿,伙伴们,今天我们的AI探索之旅已经圆满结束。关于“AI编程-树人与鲁迅案例分享”的内容已经分享给大家了。感谢你们的陪伴,希望这次旅程让你对AI能够更了解、更喜欢。谨记,精准提问是解锁AI潜能的钥匙哦!如果有小伙伴想要了解学习更多的AI知识,请关注我们的官网“AI智研社”,保证让你收获满满呦!
还没有评论呢,快来抢沙发~