
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
DeepSeek R1虽然免费,但是基本到了无法使用的状态。一两轮对话后,就开始服务忙了。好在这是一个开源模型,大量的第三方平台开始上线了。最近听闻腾讯云也上线了 DeepSeek-V3、DeepSeek-R1 满血版模型。而且可以免费不限量使用。

2025 年是 AI Agent 元年——这句话,在北京时间 3 月 6 日凌晨,得到了应验。**「DeepSeek 之后,又一个科技圈的不眠之夜。」**不少用户在社交媒体上如此点评。所有人彻夜蹲守,只为该产品的一个使用邀请码——它就是 Monica.im 研发的全球首款 AI Agent 产品「Manus」。

利用DeepSeek-R1与RAG(Retrieval-Augmented Generation,检索增强生成)技术可以快速搭建本地知识库。为确保本地知识库的高效搭建,需先准备DeepSeek-R1模型、相关文档/数据集及部署工具(如Ollama), 随后安装Ollama并部署DeepSeek-R1 ,同时选择并配置文本嵌入模型,最后收集/整理文档并确保其唯一标识符和文本内容, 利用文本嵌入模型转

“通过局域网或异地公网访问本地部署的DeepSeek+数据库”, 这是一个常见的场景,我也有用到,本次将整理分享配置“局域网或异地公网”访问的方法!

交流了“如何使知识库检索更准确”、“在知识库检索之前应该做哪些事情”、“大模型在公文领域的实践及相关问题解决方案”、“知识图谱对于知识库检索准确度的提升”等话题,大佬在海量公文政策的AI实践中得到了很多经验,这次交流不仅验证了我们的技术可行性,同时也得到了很多不一样的想法。

嘿,小伙伴们!今天给大家带来一个超实用的开源工具组合,能帮企业快速搭建本地知识库,提升内部信息管理效率。这个组合就是 Ollama + DeepSeek + Dify,接下来我详细说说怎么操作,保证小白也能轻松上手!

ktransformers(读作 Quick Transformers)是一个由 清华大学 KVCache.AI 团队开发的开源项目,旨在优化大语言模型(LLM)的推理性能,特别是在有限显存资源下运行大型模型。

模型蒸馏(Knowledge Distillation)是一种将大型复杂模型(教师模型)的知识迁移到小型高效模型(学生模型)的技术。其核心目标是在保持模型性能的同时,显著降低模型的计算复杂度和存储需求,使其更适合在资源受限的环境中部署。在机器学习中,模型蒸馏是一种优化技术,通过模仿教师模型的输出,训练一个较小的学生模型,从而实现知识的传递。教师模型通常具有较高的性能,但计算成本高昂,而学生模型则更

DeepSeek作为医疗领域的人工智能大模型,其本地化部署正在逐步改变医院的护理和行政工作模式。从临床实践和行政办公两个维度来看,DeepSeek通过自动化、智能化技术,可替代或优化护士的部分重复性、标准化工作,从而释放更多人力资源用于高价值的护理服务。以下是具体分析:

DeepSeek最近发表的论文DeepSeek-R1中介绍了一种创新的方法,通过强化学习(RL)提升大型语言模型(LLM)的推理能力。这项研究在如何仅依靠强化学习而不是过分依赖监督式微调的情况下,增强LLM解决复杂问题的能力上,取得了重要进展。
