AI客户端全能工具,请记住Cherry Studio

Cherry Studio 搭建个人知识库,太好用了

最近一直私有化部署AI,服务器搭建好后,找一个对话的客户端工具,就是超级重大的事情了。之前一直用ollama搭建的时候,也有不少私有化模型的工具,如AnythingLLM, chatBox等等。今天发现一个更强劲的工具,强推 Cherry Studio!专为国人打造,操作简单,自带丰富提示词模板。不仅能生成图片、翻译,还可搭建个人知识库。功能强劲又实用,重新定义 AI 工具,无论是小白还是老手,都值得一试,赶紧用起来!

AI客户端全能工具,请记住Cherry Studio

下载

打开这个地址:https://cherry-ai.com/ ,可以看到一个超级美丽的网站, 可以根据自己的系统下载。下载完了之后,您就点击安装就行,这个过程挺简单的,在这我就不多说了。

AI客户端全能工具,请记住Cherry Studio

配置

Cherry Studio 能支持主流的大模型服务,配置的过程大体上都差不多,在这我跟您说一说几个常用模型服务的配置过程。您可以按照自己的需要去配置,我提议您多配置几个模型服务,这样在不同的聊天窗口里就能用不同的模型服务啦。

我自己通过 硅基流动、Ollama、Vllm 这三个模型,让 Cherry Studio 能够同时免费支持 DeepSeek、Gemini、GPT – 4o 等几个大语言模型。

AI客户端全能工具,请记住Cherry Studio

需要其他模型的,只需要录入apiKey就可以,apiKey可以到相关网站上申请。

MCP服务

Cherry Studio 可以对接MCPserver,我开发了两个MCP服务,简单的增加就可以,如下,新增MCP服务:

增加完成后,在下方将显示mcpserver 暴露的服务。

AI客户端全能工具,请记住Cherry Studio

在对话中关联MCP服务

AI客户端全能工具,请记住Cherry Studio

在对话中可以大模型会根据提示,调用mcpserver 了

AI客户端全能工具,请记住Cherry Studio

其他相关工具:

与 Cherry Studio 同类型的产品主要有:

Chatbox

  • 特点:专注对话式 AI 应用,界面简洁易用 ,安装后可直接使用,无需繁琐配置。对本地模型友善,兼容 Ollama 等本地推理工具 ,在低配置设备也能流畅运行。内置 “我的搭档” 功能,有图表制作、旅行助手等实用性强的助手。
  • 适用场景:适合个人开发者快速测试本地模型效果;辅助开发者临时调试模型或生成代码片段 ;作为教育场景教学演示工具 。

AI客户端全能工具,请记住Cherry Studio

AnythingLLM

  • 特点:界面设计偏专业化 ,专注文档智能化处理和知识管理。支持 PDF、Word 等文件索引,利用向量检索技术精准定位文档片段,结合大模型生成答案 。可与 Ollama 等本地推理引擎对接,保障数据安全 。采用 “检索增强生成” 模式,回答专业性和准确性高。
    • 适用场景:适用于企业内部文档库自动化问答,减轻人工客服压力;辅助学术研究人员进行文献摘要与信息提取 ;协助个人用户管理海量笔记和电子书等知识资源 。

    AI客户端全能工具,请记住Cherry Studio

    LM Studio

    主要面向开发者和技术爱好者 ,提供在本地运行、实验和微调 LLM(大语言模型)的平台 。

    AI客户端全能工具,请记住Cherry Studio

    OpenWebUI

    是用户友善的 Web 图形用户界面(WebUI) ,主要用于便捷地与 Ollama、OpenAI API 等多种 AI 模型进行交互 。

    AI客户端全能工具,请记住Cherry Studio

    最后说一句:学AI,不落伍。

    © 版权声明
    THE END
    如果内容对您有所帮助,就支持一下吧!
    点赞0 分享
    评论 共2条

    请登录后发表评论