上篇分享了 国产AI之光!DeepSeek本地部署教程,效果媲美GPT-4,今天分享下deepseek +本地知识库的部署。

先画个数据流程流程。

图片


基于Cherry Studio搭建(首选) 

基于本地的deepseek搭建个人知识库。 使用本地服务,安装嵌入模型,用于将文本数据转换为向量标识的模型。

#命令行窗口执行拉取下即可。
ollama pull bge-m3
pulling manifest
pulling daec91ffb5dd... 100% ▕████████████████████████████████████████████████████████▏ 1.2 GB
pulling a406579cd136... 100% ▕████████████████████████████████████████████████████████▏ 1.1 KB
pulling 0c4c9c2a325f... 100% ▕████████████████████████████████████████████████████████▏  337 B
verifying sha256 digest
writing manifest
success

下载cherry studio

根据自己的环境下载cherry studio

图片
安装的时候,注意安装到其他磁盘,不要在c盘安装。

本地模型知识库

配置本地ollama

图片
图片

操作步骤:

  1. 找到左下角设置图标
  2. 选择模型服务
  3. 选择ollama
  4. 点击管理
  5. 点击模型后面的加号(会自动查找到本地安装的模型)
  6. 减号表示已经选择了

知识库配置

图片
  1. 选择知识库
  2. 选择添加
  3. 选择嵌入模型
  4. 填写知识库名称

添加知识文档

cherry可以添加文档,也可以添加目录(这个极其方便),添加完以后出现绿色的对号,表示向量化完成。

图片


搜索验证

图片
  1. 点击搜索知识库
  2. 输入搜索顺序
  3. 点击搜索 大家可以看下我搜索的内容和并没有完全匹配,不过已经和意境关联上了。

大模型处理

图片
  1. 点击左上角的聊天图标
  2. 点击助手
  3. 点击默认助手(你也可以添加助手)
  4. 选择大模型
  5. 选择本地deepseek,也可以选择自己已经开通的在线服务
  6. 设置知识库(不设置不会参考)
  7. 输入提问内容
  8. 发问图片

大家可以看到deepseek已经把结果整理了,并告诉了我们参考了哪些资料。

满血版

差别就是大模型的选择,在模型服务里配置下在线的deepseek服务即可。

如果你的知识库有隐私数据,不要联网!不要联网!不要联网!

方案二 基于AnythingLLM搭建 

下载AnythingLLM  Desktop

图片

下载以后,安装的时候,注意安装到其他磁盘,不要在c盘安装。

AnythingLLM 配置

图片
点击左下角的设置
图片
1. 点击 LLM首选项
2. 选择ollama作为模型提供商
3. 选择已安装的deepsek 模型
4. 注意下地址
5. 保存
图片
1. 向量数据库不用动即可,使用自带的(ps:如果没有选择安装目录,默认在c盘,如果后续有需要可以挪走)
2. 嵌入模型配置
3. 可以使用自带的,也可以使用ollama安装好的
4. 配置完点击左下角的返回即可

配置工作区

图片

图片
  1. 新建的工作区
  2. 默认会话
  3. 上传知识库文档
图片

将文档拖拽到上传框。ps: 只需要拖拽一次就行了,它在聊天框能看到。不知道为什么,我这拖拽以后,没看到上传成功,然后又拖拽了几次。然后聊天框就好多份。

图片
图片


当然你可以配置远程文档,confluence、github都可以。

图片

ps: 需要注意的是文档在工作区间内是共用的。

api功能

AnythingLLM 可以提供api访问的功能,这个可以作为公共知识库使用。

图片

总结 

整个操作下来,AnythingLLM 的体验没有cherry好。AnythingLLM就像一个包壳的web应用(后来查了下,确实是)。AnythingLLM 得具备一定的程序思维,给技术人员用的。非技术人员还是使用cherry吧。作为喜欢折腾的开发人员,我们可以结合dify使用。


在六度人和(以下简称EC)内部,有一款打开率高达100%的应用,它在EC内部员工与外部渠道供应商间广泛使用,覆盖了近800人的日常工作和学习,成为连接各方的重要纽带。


对内,它将EC数年来积累的数十万份知识资产汇聚于企业知识库,实现知识共享。通过这款应用,每一位员工都能够充分利用和吸收这些知识,并将其应用于实际工作从而提高打单效率。


对外,它将内部销售团队与分散在全国各地的代理商紧密连接起来,搭建了一个销售赋能知识库,赋能近800名内外销售人员。他们可以随时随地通过企业知识库进行学习、查询和答疑,这不仅提升了销售能力,还大幅降低了企业的员工学习成本与人力成本。


2024年,EC在销售知识获取场景中成功落地AI问答助手,直接推动了销售效率的提高,同时有效减轻了客服团队的支持压力。数据显示,引入AI助手后,EC销售对客户需求的响应速度提高了20%,客服支持团队的压力降低了10%,应用的日活跃用户数较之前增长了20%。


而这一系列改变的背后,离不开腾讯乐享——企业AI知识库产品的支撑。


透过EC和腾讯乐享的案例,能清晰地看到的是:知识、员工和工作场景紧密结合,是高效知识管理的关键。当知识打破单向传递模式真正融入业务闭环时,其价值也正从成本消耗转向业绩增长,帮助企业在每个业务触点产生实际效益。


来源ToB行业头条


作者刘佳



01

销售赋能新解法:构建企业知识库,实现灵活高效的知识获取

“企业知识库带来的学习效率提升是显而易见的。销售人员可以在知识库里快速定位所需的产品知识、销售技巧、客户案例等信息。”李明芳告诉我们,“在EC,销售充电站支撑了EC内外近800名销售人员和代理商的知识学习。”

李明芳是EC的CIO,多年来,EC一直在探索更有效的销售赋能方式。

作为一家采用直销+代理商模式的SCRM公司,销售人员的学习与赋能至关重要。

在销售场景下,产品和服务的复杂性对EC销售人员专业知识储备提出了较高要求,而销售人员学习能力的参差不齐,给学习规划选择带来了较大挑战。 

客观来看,这并不是传统销售赋能可以解决的问题。

“之前EC组织了很多线下和线上学习,但由于代理商分散在全国各地,效果并不理想。”

从学习效果来看,无论是线上还是线下,集中式学习通常是大多数企业的首选,但由于员工认知差异、产品更新快等原因,知识很难在短时间内完全被员工吸收,也很难做到知识的进一步转化。

传统的学习方式效果不佳,怎么办?

李明芳说:“我们曾使用过一款协同软件,但随着业务拓展,发现其无法满足各部门需求。后来了解到腾讯将内部知识管理工具孵化并对外开放后,我们便引入了腾讯乐享。

EC选择从知识源头着手,构建起以产品知识、售卖知识为核心的企业知识库,打通企业内部知识资产。并通过精细的权限管理,让企业知识库在面向渠道商、内部员工等多个群体时,从知识获取与操作权限上进行明确区分,从而搭建起“销售充电站”的各项能力。


图片


图片销售充电站知识库界面

在“销售充电站”中,EC基于知识库内已沉淀的内容,创建了专题培训单任务学习,通过精选重要知识进行定向教学,并在学习后立即进行考核以评估员工知识是否掌握。


图片


图片销售充电站围绕知识库内容创建学习任务

在此基础上,借助腾讯乐享提供的数据看板功能,EC打通了学习、考试与实战数据流。管理者通过可视化界面,可以清晰地看到销售人员对知识库内容的使用频率、内容输出和高频查阅知识点等多个指标。

这不仅帮助EC更精准地评估知识应用效果,还能依据数据分析结果,对知识库内容进行补充和优化,使其更好地服务于销售人员,同时加强对销售人员学习行为的管理。

图片
图片数据看板

值得注意的是,在知识密集型企业的运营过程中,知识管理效率与业务需求脱节的问题普遍存在,严重时会在关键业务触点形成阻滞。

EC的产品和服务以月为单位进行迭代的,因此,销售充电站的知识更新将直接影响销售团队对最新知识的获取,例如更新后的产品手册、渠道政策等信息。

若因知识体系未能及时更新迭代而产生信息同步断层,将直接导致一线销售在与客户沟通时信息失准、产品价值传递失真等关键问题,进而影响客户转化效率。

对此,借助腾讯乐享企业知识库的自动跟踪能力,EC能对销售充电站进行有效的管理,确保知识的及时更新和对过时信息的归档处理,使有效、可用的知识在销售充电站流转,有效助力销售团队的业务进程。

图片
图片有效性统一管理




02

AI加速度,实现销售效率大超车

在对企业知识的高效应用上,EC一直保持着高度敏捷。基于多年使用腾讯乐享的经验以及双方的合作,腾讯的底层能力、乐享团队的快速迭代和优质的产品服务,满足了EC对腾讯乐享AI助手能力的期待。

在过去一年里,EC快速引入了腾讯乐享的AI助手,一个使用场景正加速迭代:用AI助手基于“销售充电站”知识库里的内容实现智能知识问答,以提升销售人员的知识获取效率,直接带动团队专业素养强化与业绩转化。

 “由于企业需求各异,客户提出的产品相关问题也多种多样。当销售人员无法专业解答客户问题时,往往会转向客服人员寻求帮助。EC的客服人员每天有60%的工作时间用于协助销售人员解决这些问题。然而,这些问题中有80%是重复出现的,并且都有标准答案。”李明芳坦言。

这一传统模式正在被AI技术颠覆。过去一年,EC引入腾讯乐享AI助手后,销售人员通过AI问答自助解决问题的比例提升至30%,直接推动客服团队的服务压力下降。如今,销售人员在 “销售充电站” 平台通过AI助手提问,平均30秒内即可获取精准答案,相较此前依赖客服人工响应的5-10分钟流程,效率提升超10倍。

AI助手的突破性在于其多模态信息处理能力:系统可对PDF、PPT、表格、图片、音频、视频等非结构化数据进行语义解析,将分散知识提炼为精准回答,并在回答界面提供对应内容的参考链接,方便员工验证信息或进行拓展阅读。

而这种效率提升带来的更大价值是,可以帮助销售人员提高客户响应度与客户触达率从而直接提高销售效率。

在操作层面,销售人员知识检索耗时可以从日均45分钟降至8分钟,使销售人员可以更快地找到解决方案,提高客户满意度,同时也能将更多的时间和精力投入到核心业务活动中,推动业务增长;其次,实现了专业能力平权,AI可以高效的将资深销售的经验沉淀为标准化方法论,从而辅助销售更专业的应对客户咨询,并最终实现业务转化。

“过去80%的‘隐形知识’因无法被有效检索而闲置,销售人员不得不耗费数小时翻阅文档。”李明芳补充道,“现在,在特定场景下AI不仅将知识利用率提升至40%左右,更能帮助客服团队能将更多精力聚焦于20%的高价值复杂咨询。”

一组数显示,系统上线后,EC知识库搜索精准度达90%,销售咨询转接客服的需求量锐减20%。更显著的是,客服团队人力成本同比节省11%,而AI回答满意度(90分)与端到端问题解决准确率(90%)均达到人工服务水准。


李明芳表示:“AI给销售效率带来的提升还将随着各类使用场景的优化不断提升。未来,我们希望能达成的效果是,当销售遇到任何问题都可以用AI助手先问一下。”



03

从解决问题到创造价值
企业如何与AI对话?

对企业而言,知识管理正从辅助工具进化为战略引擎——它不仅是经验转化的过滤器,更是组织能力的放大器,驱动企业向自进化型组织跃迁。

作为SaaS CRM赛道的领跑者,EC的实践给出了阶段性的解题框架:工具实用性与价值创造的螺旋式上升。第一阶段借力腾讯乐享构建知识中枢,解决 "知识留下来" 的基础问题;第二阶段通过AI助手实现 "知识用得好"的效能跃升。

"知识管理的下一战场,是企业对隐性认知资产的挖掘和利用。"李明芳认为。当企业完成显性知识结构化后,如何利用人工智能深度挖掘员工实战中的隐性经验、非结构化的场景认知和业务洞察,将其清晰地呈现出来并转化为企业可传承的组织资产将成为关键。

而随着大语言模型掀起认知革命,知识复利效应正重构企业竞争力——每一次知识调用都在沉淀新经验,每一轮经验复用都在创造新价值,推动企业形成指数级成长的认知资产。

因此,更快地将所在行业的know-how沉淀成企业资产,也正成为构建企业竞争护城河的核心维度。

2025年,DeepSeek大模型能力的突破,为智能知识问答工具带来了新的效能提升,融入企业知识管理场景后,可以加速企业知识的高效应用,激活企业私有知识价值。

但是,传统的智能问答工具在复杂业务场景的应用上,往往会出现因为过度依赖模型推理能力,导致回答偏离实际需求,甚至会因为完全依赖文档检索,生成"幻觉"答案的情况,严重降低了知识应用效率,使企业知识库中的知识难以转化为实际生产力。

腾讯乐享作为首款接入DeepSeek的企业AI知识库产品,已攻克知识萃取+模型推理,超越基础RAG,充分应用企业知识结构,自动学习理解企业特质信息,强化掌握知识要点关联,让AI助手做到适应严谨工作场景的精准“理解-检索-回答”。

DeepSeek与腾讯乐享协同创新不仅可以帮助企业更好的实现"知识留得下、找得到、用得好"的知识全生命周期管理,更为发挥企业私有知识资产价值提供了更高效的技术支撑。

对于更多企业来说,接入像腾讯乐享这样的企业AI知识库,实现对知识的即时取用,意味着,企业在与AI的对话中,有了更可行的使用手册。

当管理者通过知识驾驶舱,直观地看到知识资产在企业内部高效流转,看到知识应用带来的实际效果,以及在具体业务场景中实现的每一个效率提升和变化,这正是知识管理给企业入局AI时代最好的回应。

我们相信,未来,企业与AI的对话将不再局限于工具的使用和问题的解决,而是通过深度合作,共同创造一个更具创新性和适应性的知识管理环境。在这个环境中,员工能够充分发挥自己的潜力,企业也能够在激烈的市场竞争中保持领先地位。只有这样,企业才能真正实现从解决问题到创造价值的跨越,开启与AI携手共进的新篇章。



1.在浏览器输入:https://www.deepseek.com/,点击接入API




2.刚开始进去就送500万tokens(约为10元钱的额度),在2025年2月8日前都有优惠




3.点击API keys,创建API key,J记得创建时截一张图,免得又要创建






3.项目对API key的使用方法


首先在pycharm中pip install openai




然后,创建一个client(我这里命名为init_openai)




并单独创建一个.env文件保存你刚刚创建的API key(也可以直接放在init_openai这里,如果你不怕被别人看见的话),




再封装好deepseek的接口




4.模型参数可根据任务需求进行修改





5.其token用量的计算



————————————————


                            版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。

                        

原文链接:https://blog.csdn.net/qq_64296768/article/details/145113707


我胡汉三回来了,最近一直没更新是因为事太多



今天遇到的小问题,想把云服务器放到移动硬盘里随时随地用,但是制作镜像的时候懵了

我的服务器是轻量级云服务器(当时图便宜买的)


很明显我这里是点了共享的


但是共享镜像里没有 我是百思不得其解


后来咨询了了一下,是轻量级服务器没法直接导出

需要先共享到云服务器,这就能说得通为什么轻量级服务器那个界面没有共享镜像,反而出现在了云服务器这个界面了

✨共享只是第一步,这一步后云服务器的共享镜像中会显示刚才选择共享的镜像,现在自定义镜像这里还没有他,下一步点击同地域复制,把云服务器这个界面的共享镜像放到自定义镜像中

这个过程需要等一会


✨这里导出镜像到存储桶(如果之前没有用过存储桶,这里要自己授权一下,基本都是无脑同意即可,不过多介绍)


✨导出镜像这个过程要等,具体取决于个人网络(10-30分钟)



✨下载即可


后续安装使用可参考这位佬的博客:http://t.csdn.cn/Zlzep


ps:下载可能会用到COSbrowser,不用怕只是个下载器,可以把它理解为以前那个QQ旋风



✨参考文档+总结:

1.将轻量应用服务器镜像共享至云服务器,可参考轻量应用服务器镜像共享。

https://cloud.tencent.com/document/product/1207/63264

2.在云服务器中,通过共享镜像-同地域复制将镜像复制到自定义镜像。

https://cloud.tencent.com/document/product/213/4943#.E5.85.B1.E4.BA.AB.E9.95.9C.E5.83.8F-.E5.90.8C.E5.9C.B0.E5.9F.9F.E5.A4.8D.E5.88.B6

3.将自定义镜像导出至COS存储桶内,可参考将已创建的自定义镜像导出至对象存储 COS 的存储桶内。

https://cloud.tencent.com/document/product/213/70518

4.最后,从COS存储桶中下载镜像至本地即可。


最近运气有点背,干啥啥是bug,不过基本都解决了,加油。


————————————————


                            版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。

                        

原文链接:https://blog.csdn.net/m0_53889456/article/details/132804105


现在最火的AI模型是什么?当之无愧的肯定是DeepSeek,我今天也来凑这个热闹。废话不多说直接上干货!!

如果是NAS就在 Docker 镜像里直接搜索dyrnq/open-webui这个 Open WebUI 的镜像运行。

如果使用的是其他设备的Docker就直接用docker命令拉取(当然NAS也可以),我用的端口是3889

docker run -d -p 3889:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always dyrnq/open-webui:main

大厂的 API 基本都是注册就送 50 万、100 万,个人使用足够:

注册就不说了,我拿我现在用的火山方舟来做示例

创建API,把API复制到记事本,后面要用到

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

在线推理选择deepseek

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

然后就可以调用API了,三个参数分别是

  • API Key:复制出来的 API Key

  • 模型:看下面的截图

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

回到OpenWebUI然后填写相关参数,左下角或者右下角点击管理员面板

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

点设置-外部链接,填写URL和API KEY

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

然后点击旁边的设置按钮添加模型

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

添加完模型以后一定要点击+号然后再点击保存,否则保存不了模型。

现在就可以愉快的聊天了

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

如果你需要添加火山方舟的其他模型只需要在模型里添加相应的模型名称就可以了,比如我又添加了一个豆包的

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

如果添加其他的提供商是同样的方法,硅基流动的模型可以为空,会自动把所有模型都添加上去。

模型如果添加多了都不知道哪个名称对应的是哪个,我们就需要修改一下名称让我们知道它是哪个模型

同样在管理面板的设置里找到模型,点击模型名称并修改,然后保存并更新

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

修改完成后

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

如果要添加联网搜索就在管理面板里把联网搜索打开,duckduckgo是不需要api的,tavily方法也比较简单,注册送1000次搜索,其他自行摸索

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

保存后就可以联网搜索了

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

如果想要开启官网一样的思考模式那就需要导入函数了

首先打开链接注册一个账号:https://openwebui.com/f/zgccrui/deepseek_r1

点击Get

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

填写内网或者外网的访问Open WebUI的地址

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

点击Import to WebUI然后点保存,确认

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

保存好后在页面的设置里填写URL API KEY和模型名称,然后保存

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

保存好以后修改一下带推理模型的名称,然后就可以问问题了

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

测试一下六年级奥数题目

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

思考中

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

答案正确,我们可以清晰的看到推理过程

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

如果需要火山方舟自己的联网搜索并且带推理模式那就需要在控制台设置一下

打开在线推理-关联应用-立即创建

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

选择零代码

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

选择单聊模式

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

内容看着填

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

开通好以后打开联网,然后点发布

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

到这里就需要需改一下URL地址和模型名称了,这里可以很清楚的看到URL

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

后面带bot的这个就是URL地址

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

模型名称在这里

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

我们在函数里面修改URL和模型名称

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

修改一下模型名称,这样就可以使用火山方舟的联网+推理了

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

同样的道理,火山方舟支持的其他模型也可以这么去操作