logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

kimi o1和deepseek o1对比,非常直观!

deepseek 方案看起来更简洁,创新程度更高,但是对工程能力要求更高,看起来简单实现起来就不是那么回事了。kimi 的方案可能更接近 openai o1,论文写的比较详细,抄作业的难度会更低一点。目前推理模型的核心还是高质量的 cot 推理数据加上上规模的强化学习。相信后面还会有很多接近 o1 效果的模型出现。

#AI#数据分析#windows
基于 DeepSeek R1 和 Ollama 开发 RAG 系统(含代码)

这种分割方式不仅考虑了文本的长度,更重要的是能够将语义相关的内容划分到同一个块中,使得后续在检索和生成回答时,模型能够更好地理解上下文,提供更符合逻辑和语义的答案。与 OpenAI 的 o1 模型相比,DeepSeek R1 在性能表现上毫不逊色,但其成本却大幅降低,仅为 o1 的 5%,这使得更多开发者和企业能够轻松负担,加速了 RAG 技术的广泛应用。不同的模型在性能、应用场景和资源需求等方面

文章图片
#人工智能#数据库#知识图谱 +1
满血版DeepSeek终极配置:联网+私有知识库,效果爆表【详细教程】

大家好,我是袋鼠帝,最近好多朋友加微信过来,大部分都在咨询,。我之前一直推荐Coze、Fastgpt、Dify。直到昨天一个企业客户说他们用的是。点进去我才发现,他们又在他们自家的大模型知识引擎平台(LKE)体验之后,效果真的让我大为震惊我愿称之为DeepSeek完全体!基于,大家完全可以在上面同时DeepSeek的本身的理解能力就够强,,极大的降低了定制门槛。基于腾讯云LKE,就可以,并利用更关

文章图片
#人工智能#产品经理#语言模型
DeepSeek 启动大规模招聘,薪酬待遇:税前年薪 100 万元起(含基础年薪等),另加绩效奖励,上不封顶

大家好DeepSeek 果然启动大规模招聘了,春节过后使用 DeepSeek 最大的困难是:服务器很繁忙。根据国内AI产品榜统计,DeepSeek 应用(不包含网站数据)上线 5 天日活就已超过 ChatGPT 上线同期日活,成为全球增速最快的AI应用。DeepSeek 上线 20 天,日活突破 2000 万,对 DeepSeek 是惊喜也是重压,没有哪个小公司能经得起这么大的流量。。招人是肯定的

文章图片
#人工智能#AI
深度解析:DeepSeek及其背后的核心技术

训练成本主要由模型架构以及训练架构所决定,而且两者一定是相辅相成。I.MLA 机制:通过对KV做联合低秩压缩大幅减少KV Cache,相比业界从KV数量角度做KV Cache的减少,MLA 的压缩实现很考验研究团队的基本功。II.FP8 训练:通过低精度计算减少了 GPU 内存使用和计算开销,技术报告中也提到FP8混合精度训练框架是首次在一个极大规模的模型上验证了其有效性,这一点也看出DeepSe

文章图片
#人工智能#AI
别整天DeepSeek了,“GPT-4o级“多模态AI助手也可零成本部署,能看能听又能说!

近期国产大模型最火的,除了DeepSeek,就要属面壁智能“小钢炮”MiniCPM-o 2.6。“小钢炮”的亮点是:具备可以和GPT-4o较劲的多模态能力。首先简单看一下它的表现。1.实时视频通话让AI看一下坐在摄像头前的我:让AI看一下手机屏幕上的内容并分析:可以比较精准地识别画面中的内容,但相比GPT-4o,反应略慢。2.实时语音通话对语音的反应速度较顺畅,日常对话之外,也可辨认各种声音(比如

文章图片
#人工智能#AI
我把DeepSeek-R1推理能力知识蒸馏到Qwen2,效果真的炸裂!!!

通过知识蒸馏,DeepSeek-R1的推理能力被高效迁移到Qwen系列小模型中。这一过程以模板化输出和拒绝采样为核心,通过结构化数据生成和精细化训练,使小模型在资源受限的场景中也能实现复杂推理任务。这一技术为AI模型的轻量化部署提供了重要参考。

文章图片
#算法#人工智能#AI
DeepSeek接棒OpenAI:最新开源R1推理模型震撼AI圈!

昨晚,大模型领域再次「热闹起来」,月之暗面发布在数学、代码、多模态推理能力层面全面对标 OpenAI 的满血版 o1 的[多模态思考模型 K1.5]。而最近大热的 DeepSeek 正式推出了 DeepSeek-R1,同样在数学、代码和自然语言推理等任务上比肩 OpenAI o1 正式版。去年 12 月开源的大模型 DeepSeek-V3 刚刚掀起了一阵热潮,实现了诸多的不可能。这次开源的 R1

文章图片
#人工智能
把Deepseek大爆发!20个高阶提示词,1小时完成论文润色、降重。改个标题

润色优化“请优化本段落的跨章节逻辑衔接,确保研究假设与论证过程形成闭环”“对实验方法描述进行学术术语标准化处理,符合【IEEE】出版规范”“提升文献综述部分的批判性分析深度,强化理论对话的学术价值”“将口语化表述转换为学术书面语,例如将’我们做了实验’改为’本研究通过实验设计验证’”“优化数据可视化描述,确保图表解读与正文分析形成有效互文”6. “对连续重复的12字以上字段进行语义保持的同义替换与

文章图片
#产品经理#学习#人工智能 +1
基于 DeepSeek R1 和 Ollama 开发 RAG 系统(含代码)

这种分割方式不仅考虑了文本的长度,更重要的是能够将语义相关的内容划分到同一个块中,使得后续在检索和生成回答时,模型能够更好地理解上下文,提供更符合逻辑和语义的答案。与 OpenAI 的 o1 模型相比,DeepSeek R1 在性能表现上毫不逊色,但其成本却大幅降低,仅为 o1 的 5%,这使得更多开发者和企业能够轻松负担,加速了 RAG 技术的广泛应用。不同的模型在性能、应用场景和资源需求等方面

文章图片
#人工智能#数据库#知识图谱 +1
    共 49 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 请选择