logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

我的“DeepSeek服务不忙了”,腾讯云671B满血模型无限量调用攻略!

DeepSeek R1虽然免费,但是基本到了无法使用的状态。一两轮对话后,就开始服务忙了。好在这是一个开源模型,大量的第三方平台开始上线了。最近听闻腾讯云也上线了 DeepSeek-V3、DeepSeek-R1 满血版模型。而且可以免费不限量使用。

文章图片
#腾讯云#人工智能#语言模型
AI Agent 的「GPT 时刻」,Manus 炸醒整个 AI 圈!

2025 年是 AI Agent 元年——这句话,在北京时间 3 月 6 日凌晨,得到了应验。**「DeepSeek 之后,又一个科技圈的不眠之夜。」**不少用户在社交媒体上如此点评。所有人彻夜蹲守,只为该产品的一个使用邀请码——它就是 Monica.im 研发的全球首款 AI Agent 产品「Manus」。

文章图片
#人工智能#语言模型
DeepSeek-R1 + RAG搭建本地知识库,收藏这一篇就够了!!

利用DeepSeek-R1与RAG(Retrieval-Augmented Generation,检索增强生成)技术可以快速搭建本地知识库。为确保本地知识库的高效搭建,需先准备DeepSeek-R1模型、相关文档/数据集及部署工具(如Ollama), 随后安装Ollama并部署DeepSeek-R1 ,同时选择并配置文本嵌入模型,最后收集/整理文档并确保其唯一标识符和文本内容, 利用文本嵌入模型转

文章图片
#人工智能#语言模型#RAG
DeepSeek本地部署(局域网+异地访问)数据库(保姆教程),建议收藏起来慢慢学!!

“通过局域网或异地公网访问本地部署的DeepSeek+数据库”, 这是一个常见的场景,我也有用到,本次将整理分享配置“局域网或异地公网”访问的方法!

文章图片
#数据库#服务器#网络 +2
DeepSeek+知识库生成的结果不准,该如何解决?看完这一篇你就懂了!!!

交流了“如何使知识库检索更准确”、“在知识库检索之前应该做哪些事情”、“大模型在公文领域的实践及相关问题解决方案”、“知识图谱对于知识库检索准确度的提升”等话题,大佬在海量公文政策的AI实践中得到了很多经验,这次交流不仅验证了我们的技术可行性,同时也得到了很多不一样的想法。

文章图片
#人工智能#语言模型
超实用!用 Ollama + DeepSeek + Dify 搭建本地知识库,提升企业效率

嘿,小伙伴们!今天给大家带来一个超实用的开源工具组合,能帮企业快速搭建本地知识库,提升内部信息管理效率。这个组合就是 Ollama + DeepSeek + Dify,接下来我详细说说怎么操作,保证小白也能轻松上手!

文章图片
#人工智能#语言模型
14G 显存跑动千亿大模型!基于 KTransformers 的 DeepSeek-R1‘满血版‘实战

ktransformers(读作 Quick Transformers)是一个由 清华大学 KVCache.AI 团队开发的开源项目,旨在优化大语言模型(LLM)的推理性能,特别是在有限显存资源下运行大型模型。

文章图片
#人工智能#语言模型#transformer
4000字!深度解析 DeepSeek 的蒸馏技术,收藏这一篇就够了!!

模型蒸馏(Knowledge Distillation)是一种将大型复杂模型(教师模型)的知识迁移到小型高效模型(学生模型)的技术。其核心目标是在保持模型性能的同时,显著降低模型的计算复杂度和存储需求,使其更适合在资源受限的环境中部署。在机器学习中,模型蒸馏是一种优化技术,通过模仿教师模型的输出,训练一个较小的学生模型,从而实现知识的传递。教师模型通常具有较高的性能,但计算成本高昂,而学生模型则更

文章图片
#人工智能#语言模型
DeepSeek接入医院,能替代护士哪些工作?看完这一篇你就知道了!!

DeepSeek作为医疗领域的人工智能大模型,其本地化部署正在逐步改变医院的护理和行政工作模式。从临床实践和行政办公两个维度来看,DeepSeek通过自动化、智能化技术,可替代或优化护士的部分重复性、标准化工作,从而释放更多人力资源用于高价值的护理服务。以下是具体分析:

文章图片
#人工智能#语言模型
DeepSeek R1 简单指南:架构、训练、本地部署和硬件要求

DeepSeek最近发表的论文DeepSeek-R1中介绍了一种创新的方法,通过强化学习(RL)提升大型语言模型(LLM)的推理能力。这项研究在如何仅依靠强化学习而不是过分依赖监督式微调的情况下,增强LLM解决复杂问题的能力上,取得了重要进展。

文章图片
#架构#人工智能#语言模型
    共 32 条
  • 1
  • 2
  • 3
  • 4
  • 请选择