分类 大观园 下的文章

在六度人和(以下简称EC)内部,有一款打开率高达100%的应用,它在EC内部员工与外部渠道供应商间广泛使用,覆盖了近800人的日常工作和学习,成为连接各方的重要纽带。


对内,它将EC数年来积累的数十万份知识资产汇聚于企业知识库,实现知识共享。通过这款应用,每一位员工都能够充分利用和吸收这些知识,并将其应用于实际工作从而提高打单效率。


对外,它将内部销售团队与分散在全国各地的代理商紧密连接起来,搭建了一个销售赋能知识库,赋能近800名内外销售人员。他们可以随时随地通过企业知识库进行学习、查询和答疑,这不仅提升了销售能力,还大幅降低了企业的员工学习成本与人力成本。


2024年,EC在销售知识获取场景中成功落地AI问答助手,直接推动了销售效率的提高,同时有效减轻了客服团队的支持压力。数据显示,引入AI助手后,EC销售对客户需求的响应速度提高了20%,客服支持团队的压力降低了10%,应用的日活跃用户数较之前增长了20%。


而这一系列改变的背后,离不开腾讯乐享——企业AI知识库产品的支撑。


透过EC和腾讯乐享的案例,能清晰地看到的是:知识、员工和工作场景紧密结合,是高效知识管理的关键。当知识打破单向传递模式真正融入业务闭环时,其价值也正从成本消耗转向业绩增长,帮助企业在每个业务触点产生实际效益。


来源ToB行业头条


作者刘佳



01

销售赋能新解法:构建企业知识库,实现灵活高效的知识获取

“企业知识库带来的学习效率提升是显而易见的。销售人员可以在知识库里快速定位所需的产品知识、销售技巧、客户案例等信息。”李明芳告诉我们,“在EC,销售充电站支撑了EC内外近800名销售人员和代理商的知识学习。”

李明芳是EC的CIO,多年来,EC一直在探索更有效的销售赋能方式。

作为一家采用直销+代理商模式的SCRM公司,销售人员的学习与赋能至关重要。

在销售场景下,产品和服务的复杂性对EC销售人员专业知识储备提出了较高要求,而销售人员学习能力的参差不齐,给学习规划选择带来了较大挑战。 

客观来看,这并不是传统销售赋能可以解决的问题。

“之前EC组织了很多线下和线上学习,但由于代理商分散在全国各地,效果并不理想。”

从学习效果来看,无论是线上还是线下,集中式学习通常是大多数企业的首选,但由于员工认知差异、产品更新快等原因,知识很难在短时间内完全被员工吸收,也很难做到知识的进一步转化。

传统的学习方式效果不佳,怎么办?

李明芳说:“我们曾使用过一款协同软件,但随着业务拓展,发现其无法满足各部门需求。后来了解到腾讯将内部知识管理工具孵化并对外开放后,我们便引入了腾讯乐享。

EC选择从知识源头着手,构建起以产品知识、售卖知识为核心的企业知识库,打通企业内部知识资产。并通过精细的权限管理,让企业知识库在面向渠道商、内部员工等多个群体时,从知识获取与操作权限上进行明确区分,从而搭建起“销售充电站”的各项能力。


图片


图片销售充电站知识库界面

在“销售充电站”中,EC基于知识库内已沉淀的内容,创建了专题培训单任务学习,通过精选重要知识进行定向教学,并在学习后立即进行考核以评估员工知识是否掌握。


图片


图片销售充电站围绕知识库内容创建学习任务

在此基础上,借助腾讯乐享提供的数据看板功能,EC打通了学习、考试与实战数据流。管理者通过可视化界面,可以清晰地看到销售人员对知识库内容的使用频率、内容输出和高频查阅知识点等多个指标。

这不仅帮助EC更精准地评估知识应用效果,还能依据数据分析结果,对知识库内容进行补充和优化,使其更好地服务于销售人员,同时加强对销售人员学习行为的管理。

图片
图片数据看板

值得注意的是,在知识密集型企业的运营过程中,知识管理效率与业务需求脱节的问题普遍存在,严重时会在关键业务触点形成阻滞。

EC的产品和服务以月为单位进行迭代的,因此,销售充电站的知识更新将直接影响销售团队对最新知识的获取,例如更新后的产品手册、渠道政策等信息。

若因知识体系未能及时更新迭代而产生信息同步断层,将直接导致一线销售在与客户沟通时信息失准、产品价值传递失真等关键问题,进而影响客户转化效率。

对此,借助腾讯乐享企业知识库的自动跟踪能力,EC能对销售充电站进行有效的管理,确保知识的及时更新和对过时信息的归档处理,使有效、可用的知识在销售充电站流转,有效助力销售团队的业务进程。

图片
图片有效性统一管理




02

AI加速度,实现销售效率大超车

在对企业知识的高效应用上,EC一直保持着高度敏捷。基于多年使用腾讯乐享的经验以及双方的合作,腾讯的底层能力、乐享团队的快速迭代和优质的产品服务,满足了EC对腾讯乐享AI助手能力的期待。

在过去一年里,EC快速引入了腾讯乐享的AI助手,一个使用场景正加速迭代:用AI助手基于“销售充电站”知识库里的内容实现智能知识问答,以提升销售人员的知识获取效率,直接带动团队专业素养强化与业绩转化。

 “由于企业需求各异,客户提出的产品相关问题也多种多样。当销售人员无法专业解答客户问题时,往往会转向客服人员寻求帮助。EC的客服人员每天有60%的工作时间用于协助销售人员解决这些问题。然而,这些问题中有80%是重复出现的,并且都有标准答案。”李明芳坦言。

这一传统模式正在被AI技术颠覆。过去一年,EC引入腾讯乐享AI助手后,销售人员通过AI问答自助解决问题的比例提升至30%,直接推动客服团队的服务压力下降。如今,销售人员在 “销售充电站” 平台通过AI助手提问,平均30秒内即可获取精准答案,相较此前依赖客服人工响应的5-10分钟流程,效率提升超10倍。

AI助手的突破性在于其多模态信息处理能力:系统可对PDF、PPT、表格、图片、音频、视频等非结构化数据进行语义解析,将分散知识提炼为精准回答,并在回答界面提供对应内容的参考链接,方便员工验证信息或进行拓展阅读。

而这种效率提升带来的更大价值是,可以帮助销售人员提高客户响应度与客户触达率从而直接提高销售效率。

在操作层面,销售人员知识检索耗时可以从日均45分钟降至8分钟,使销售人员可以更快地找到解决方案,提高客户满意度,同时也能将更多的时间和精力投入到核心业务活动中,推动业务增长;其次,实现了专业能力平权,AI可以高效的将资深销售的经验沉淀为标准化方法论,从而辅助销售更专业的应对客户咨询,并最终实现业务转化。

“过去80%的‘隐形知识’因无法被有效检索而闲置,销售人员不得不耗费数小时翻阅文档。”李明芳补充道,“现在,在特定场景下AI不仅将知识利用率提升至40%左右,更能帮助客服团队能将更多精力聚焦于20%的高价值复杂咨询。”

一组数显示,系统上线后,EC知识库搜索精准度达90%,销售咨询转接客服的需求量锐减20%。更显著的是,客服团队人力成本同比节省11%,而AI回答满意度(90分)与端到端问题解决准确率(90%)均达到人工服务水准。


李明芳表示:“AI给销售效率带来的提升还将随着各类使用场景的优化不断提升。未来,我们希望能达成的效果是,当销售遇到任何问题都可以用AI助手先问一下。”



03

从解决问题到创造价值
企业如何与AI对话?

对企业而言,知识管理正从辅助工具进化为战略引擎——它不仅是经验转化的过滤器,更是组织能力的放大器,驱动企业向自进化型组织跃迁。

作为SaaS CRM赛道的领跑者,EC的实践给出了阶段性的解题框架:工具实用性与价值创造的螺旋式上升。第一阶段借力腾讯乐享构建知识中枢,解决 "知识留下来" 的基础问题;第二阶段通过AI助手实现 "知识用得好"的效能跃升。

"知识管理的下一战场,是企业对隐性认知资产的挖掘和利用。"李明芳认为。当企业完成显性知识结构化后,如何利用人工智能深度挖掘员工实战中的隐性经验、非结构化的场景认知和业务洞察,将其清晰地呈现出来并转化为企业可传承的组织资产将成为关键。

而随着大语言模型掀起认知革命,知识复利效应正重构企业竞争力——每一次知识调用都在沉淀新经验,每一轮经验复用都在创造新价值,推动企业形成指数级成长的认知资产。

因此,更快地将所在行业的know-how沉淀成企业资产,也正成为构建企业竞争护城河的核心维度。

2025年,DeepSeek大模型能力的突破,为智能知识问答工具带来了新的效能提升,融入企业知识管理场景后,可以加速企业知识的高效应用,激活企业私有知识价值。

但是,传统的智能问答工具在复杂业务场景的应用上,往往会出现因为过度依赖模型推理能力,导致回答偏离实际需求,甚至会因为完全依赖文档检索,生成"幻觉"答案的情况,严重降低了知识应用效率,使企业知识库中的知识难以转化为实际生产力。

腾讯乐享作为首款接入DeepSeek的企业AI知识库产品,已攻克知识萃取+模型推理,超越基础RAG,充分应用企业知识结构,自动学习理解企业特质信息,强化掌握知识要点关联,让AI助手做到适应严谨工作场景的精准“理解-检索-回答”。

DeepSeek与腾讯乐享协同创新不仅可以帮助企业更好的实现"知识留得下、找得到、用得好"的知识全生命周期管理,更为发挥企业私有知识资产价值提供了更高效的技术支撑。

对于更多企业来说,接入像腾讯乐享这样的企业AI知识库,实现对知识的即时取用,意味着,企业在与AI的对话中,有了更可行的使用手册。

当管理者通过知识驾驶舱,直观地看到知识资产在企业内部高效流转,看到知识应用带来的实际效果,以及在具体业务场景中实现的每一个效率提升和变化,这正是知识管理给企业入局AI时代最好的回应。

我们相信,未来,企业与AI的对话将不再局限于工具的使用和问题的解决,而是通过深度合作,共同创造一个更具创新性和适应性的知识管理环境。在这个环境中,员工能够充分发挥自己的潜力,企业也能够在激烈的市场竞争中保持领先地位。只有这样,企业才能真正实现从解决问题到创造价值的跨越,开启与AI携手共进的新篇章。



1.在浏览器输入:https://www.deepseek.com/,点击接入API




2.刚开始进去就送500万tokens(约为10元钱的额度),在2025年2月8日前都有优惠




3.点击API keys,创建API key,J记得创建时截一张图,免得又要创建






3.项目对API key的使用方法


首先在pycharm中pip install openai




然后,创建一个client(我这里命名为init_openai)




并单独创建一个.env文件保存你刚刚创建的API key(也可以直接放在init_openai这里,如果你不怕被别人看见的话),




再封装好deepseek的接口




4.模型参数可根据任务需求进行修改





5.其token用量的计算



————————————————


                            版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。

                        

原文链接:https://blog.csdn.net/qq_64296768/article/details/145113707


我胡汉三回来了,最近一直没更新是因为事太多



今天遇到的小问题,想把云服务器放到移动硬盘里随时随地用,但是制作镜像的时候懵了

我的服务器是轻量级云服务器(当时图便宜买的)


很明显我这里是点了共享的


但是共享镜像里没有 我是百思不得其解


后来咨询了了一下,是轻量级服务器没法直接导出

需要先共享到云服务器,这就能说得通为什么轻量级服务器那个界面没有共享镜像,反而出现在了云服务器这个界面了

✨共享只是第一步,这一步后云服务器的共享镜像中会显示刚才选择共享的镜像,现在自定义镜像这里还没有他,下一步点击同地域复制,把云服务器这个界面的共享镜像放到自定义镜像中

这个过程需要等一会


✨这里导出镜像到存储桶(如果之前没有用过存储桶,这里要自己授权一下,基本都是无脑同意即可,不过多介绍)


✨导出镜像这个过程要等,具体取决于个人网络(10-30分钟)



✨下载即可


后续安装使用可参考这位佬的博客:http://t.csdn.cn/Zlzep


ps:下载可能会用到COSbrowser,不用怕只是个下载器,可以把它理解为以前那个QQ旋风



✨参考文档+总结:

1.将轻量应用服务器镜像共享至云服务器,可参考轻量应用服务器镜像共享。

https://cloud.tencent.com/document/product/1207/63264

2.在云服务器中,通过共享镜像-同地域复制将镜像复制到自定义镜像。

https://cloud.tencent.com/document/product/213/4943#.E5.85.B1.E4.BA.AB.E9.95.9C.E5.83.8F-.E5.90.8C.E5.9C.B0.E5.9F.9F.E5.A4.8D.E5.88.B6

3.将自定义镜像导出至COS存储桶内,可参考将已创建的自定义镜像导出至对象存储 COS 的存储桶内。

https://cloud.tencent.com/document/product/213/70518

4.最后,从COS存储桶中下载镜像至本地即可。


最近运气有点背,干啥啥是bug,不过基本都解决了,加油。


————————————————


                            版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。

                        

原文链接:https://blog.csdn.net/m0_53889456/article/details/132804105


现在最火的AI模型是什么?当之无愧的肯定是DeepSeek,我今天也来凑这个热闹。废话不多说直接上干货!!

如果是NAS就在 Docker 镜像里直接搜索dyrnq/open-webui这个 Open WebUI 的镜像运行。

如果使用的是其他设备的Docker就直接用docker命令拉取(当然NAS也可以),我用的端口是3889

docker run -d -p 3889:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always dyrnq/open-webui:main

大厂的 API 基本都是注册就送 50 万、100 万,个人使用足够:

注册就不说了,我拿我现在用的火山方舟来做示例

创建API,把API复制到记事本,后面要用到

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

在线推理选择deepseek

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

然后就可以调用API了,三个参数分别是

  • API Key:复制出来的 API Key

  • 模型:看下面的截图

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

回到OpenWebUI然后填写相关参数,左下角或者右下角点击管理员面板

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

点设置-外部链接,填写URL和API KEY

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

然后点击旁边的设置按钮添加模型

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

添加完模型以后一定要点击+号然后再点击保存,否则保存不了模型。

现在就可以愉快的聊天了

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

如果你需要添加火山方舟的其他模型只需要在模型里添加相应的模型名称就可以了,比如我又添加了一个豆包的

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

如果添加其他的提供商是同样的方法,硅基流动的模型可以为空,会自动把所有模型都添加上去。

模型如果添加多了都不知道哪个名称对应的是哪个,我们就需要修改一下名称让我们知道它是哪个模型

同样在管理面板的设置里找到模型,点击模型名称并修改,然后保存并更新

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

修改完成后

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

如果要添加联网搜索就在管理面板里把联网搜索打开,duckduckgo是不需要api的,tavily方法也比较简单,注册送1000次搜索,其他自行摸索

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

保存后就可以联网搜索了

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

如果想要开启官网一样的思考模式那就需要导入函数了

首先打开链接注册一个账号:https://openwebui.com/f/zgccrui/deepseek_r1

点击Get

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

填写内网或者外网的访问Open WebUI的地址

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

点击Import to WebUI然后点保存,确认

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

保存好后在页面的设置里填写URL API KEY和模型名称,然后保存

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

保存好以后修改一下带推理模型的名称,然后就可以问问题了

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

测试一下六年级奥数题目

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

思考中

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

答案正确,我们可以清晰的看到推理过程

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

如果需要火山方舟自己的联网搜索并且带推理模式那就需要在控制台设置一下

打开在线推理-关联应用-立即创建

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

选择零代码

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

选择单聊模式

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

内容看着填

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

开通好以后打开联网,然后点发布

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

到这里就需要需改一下URL地址和模型名称了,这里可以很清楚的看到URL

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

后面带bot的这个就是URL地址

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

模型名称在这里

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

我们在函数里面修改URL和模型名称

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

修改一下模型名称,这样就可以使用火山方舟的联网+推理了

Docker安装 Open WebUI,调用API使用满血 DeepSeek R1+推理+联网

同样的道理,火山方舟支持的其他模型也可以这么去操作


一、ollama 与 docker 简介

(一)ollama(Ollama)

ollama 是一个强大的工具,它为模型的管理和运行提供了便利。它可以简化模型的下载、配置和启动过程,让用户能够快速地将不同的模型集成到自己的工作流程中。例如,在处理多个不同类型的大语言模型时,ollama 可以轻松管理这些模型之间的切换和调用,提高开发效率。

(二)docker

docker 则是容器化技术的代表,它能够将应用程序及其依赖项打包成一个独立的容器。在 DeepSeek 部署中,使用 docker 可以确保 deepseek - r1 在不同环境中具有一致的运行状态。无论在开发环境、测试环境还是生产环境,只要安装了 docker,就可以运行相同的 deepseek - r1 容器,避免了因环境差异导致的兼容性问题。

二、利用 ollama 和 docker 配置 deepseek-r1 的准备工作

(一)硬件需求

同常规的 DeepSeek 部署类似,需要一台性能不错的计算机。内存建议 16GB 以上,这样在运行容器和模型时,能够保证系统的流畅性。同时,配备 NVIDIA GPU 会显著提升模型的推理速度,对于处理大规模文本任务非常关键。

(二)软件安装

安装 docker:可以从 docker 官方网站获取适合你操作系统的安装包,按照官方指引进行安装。在安装完成后,确保 docker 服务正常运行,可通过简单的命令行测试来验证(sheel中输入docker)

安装 ollama:根据你使用的操作系统,选择合适的安装方式。例如,在 Linux 系统中,可以通过特定的脚本进行安装。安装完成后,配置好 ollama 的运行环境变量,确保其能够被系统正确识别。

三、配置 deepseek-r1 的详细步骤

图片

可以看出DeepSeek-r1完全模型在各方面优于OpenAI,在某些方面评估甚至强于OpenAI,参数量适合于本地部署办公使用。

(一)使用 ollama 获取 deepseek-r1 模型

通过 ollama 的命令行工具,输入特定的命令来搜索和下载 deepseek - r1 模型。ollama 会自动从官方或指定的源获取模型文件,并将其存储在本地的模型库中。

(二)利用 docker 创建 deepseek-r1 容器

基于下载好的 deepseek - r1 模型,使用 docker 命令创建一个新的容器。在创建容器时,需要指定容器的名称、挂载的目录(以便与本地文件系统进行交互)以及容器运行所需的环境变量。

查看模型列表

可以访问 ollama 官方的模型仓库library查看支持的模型列表,点击浏览某个模型,可看到详细说明,如模型参数、大小、运行命令等信息。

下载模型命令

使用ollama pull命令进行下载。例如,若要下载图片中的deepseek - r1 7b 模型,在命令行中输入


ollama pull deepseek-r1:7b

(若不指定具体版本如 7b 等,默认下载最新版本)。首次使用该命令运行模型时,ollama 也会自动从网上下载模型。

注意事项

下载速度可能受网络状况影响,如果网络不稳定,下载模型可能需要较长等待时间。

部分模型对硬件资源有一定要求,如运行较大的模型(像 llama3 - 70b)可能会较慢,甚至出现硬件资源不足无法正常运行的情况,下载前可了解模型对硬件的需求。(主要是系统内存的要求)

配置容器的网络设置,确保容器能够与外部进行通信。可以根据实际需求,设置容器的端口映射,使本地应用能够访问到容器内运行的 deepseek - r1 服务。

(三)启动和测试 deepseek-r1 服务

完成容器创建后,使用 docker 命令启动 deepseek - r1 容器。容器启动后,ollama 会自动加载 deepseek - r1 模型,并启动相关的服务进程。

通过编写简单的测试脚本,向运行在容器内的 deepseek - r1 服务发送请求,验证模型是否正常工作。例如,可以发送一段文本,请求模型生成回答,检查返回的结果是否符合预期。

(四)WebUi的配置

搭建部署 Open WebUI 的方式

Docker方式(官网推荐)

Open WenUI 官网:GitHub - open-webui/open-webui: User-friendly AI Interface (Supports Ollama, OpenAI API, ...)

图片


docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v D:devopen-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

此命令启动一个docker容器









docker run:这是 Docker 用于运行容器的基本命令,它会根据指定的镜像创建并启动一个新的容器实例。-d:表示以守护进程(detached)模式运行容器,即容器会在后台运行,不会占用当前命令行终端的输入输出流,方便执行其他命令。-p 3000:8080:端口映射参数,将容器内部的 8080 端口映射到主机的 3000 端口。这样,通过访问主机的 3000 端口,就可以访问到容器内运行在 8080 端口上的open-webui应用。--add-host=host.docker.internal:host-gateway:此参数用于向容器内的/etc/hosts文件中添加一条主机映射记录,将host.docker.internal映射到host-gateway。这在容器需要与主机进行通信时非常有用,特别是在一些特殊网络环境下,使得容器能够通过host.docker.internal这个域名访问到主机。-v D:devopen-webui:/app/backend/data:这是卷挂载(volume mount)参数,将主机上的D:devopen-webui目录挂载到容器内的/app/backend/data目录。这意味着主机和容器可以共享这个目录下的文件,主机目录中的任何更改都会实时反映到容器内,反之亦然。常用于数据持久化或在容器和主机之间传递数据。--name open-webui:为运行的容器指定一个名称为open-webui,方便后续对容器进行管理和操作,例如使用docker stop open-webui停止容器,或docker start open-webui启动容器。--restart always:表示无论容器因为何种原因停止,Docker 都会自动尝试重新启动它,确保容器始终处于运行状态。ghcr.io/open-webui/open-webui:main:这是容器所使用的镜像名称和标签,指定从 GitHub Container Registry(ghcr.io)上拉取open-webui/open-webui镜像的main版本。如果本地没有该镜像,Docker 会自动从指定的镜像仓库下载。

启动ollama容器

1.使用该命令启动CPU版运行本地AI模型


docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

2.此命令用于启动GPU版本运行AI模型

前提是笔记本已配置NVIDIA的GPU驱动,可在shell中输入nvidia-smi查看详细情况


docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

图片

然后就可以访问docker中给出的open webui的地址启动web界面,选择好模型就可以进行问答对话了,恭喜你拥有了自己的AI小助手!

四、这种配置方式的优势

(一)快速部署

ollama 和 docker 的结合,大大缩短了 deepseek - r1 的部署时间。通过简单的命令行操作,即可完成模型的获取和容器的创建,相比传统的手动配置方式,效率得到了极大提升。

(二)环境隔离

docker 的容器化技术实现了环境的隔离,使得 deepseek - r1 在独立的环境中运行,不会受到本地系统其他软件的干扰。同时,也方便对模型进行版本管理和维护,当需要更新或切换模型版本时,只需要重新创建或更新容器即可。

(三)易于扩展

在后续的应用中,如果需要增加模型的计算资源,或者部署多个 deepseek - r1 实例,可以轻松地通过 docker 的集群管理功能进行扩展。ollama 也能够方便地管理多个模型之间的协同工作,满足不同业务场景的需求。

五、可能遇到的问题及解决方法

(一)网络问题

在下载模型或容器通信过程中,可能会遇到网络不稳定的情况。解决方法是检查网络连接,尝试更换网络环境或使用代理服务器。同时,ollama 和 docker 都提供了相关的网络配置选项,可以根据实际情况进行调整。

(二)资源冲突

当本地系统中已经运行了其他占用端口或资源的服务时,可能会与 deepseek - r1 容器产生冲突。可以通过修改容器的端口映射或调整本地服务的配置,来避免资源冲突。

利用 ollama 和 docker 配置 deepseek - r1 实现 DeepSeek 本机部署,为我们提供了一种高效、便捷且稳定的部署方式。随着人工智能技术的不断发展,这种基于容器化和模型管理工具的部署方法,将在更多的应用场景中发挥重要作用,推动大语言模型技术在本地开发和应用中的普及。