登录社区云,与社区用户共同成长
邀请您加入社区
2026年企业级AI资产数字化标准》指出:AI对话内容已成为企业知识库的重要组成部分。标准的PDF文档由于其跨平台一致性、不可篡改性和对矢量图形的支持,是AI原生内容走向公文流转、专利申请及技术归档的首选载体。
为此,昇腾的解决思路是坚持底层架构创新,在虚拟指令集、运行时能力、编译器等坚持走自研突破,并兼容全球AI主流开源生态,同时推动CANN计算框架在架构层面,进行功能解耦与组件独立演进,从底层的硬件驱动到运行时,再到中间的编译器和上层的加速库,每一层都实现物理上的松耦合,各组件可独立升级和API的全面兼容。当CANN社区汇聚起来自各方的智慧,当开发者一次次在CANN上完成算子开发,当CANN与各大开源
本文利用 DeepSeek V4 的推理能力,构建了一个“自然语言 → SQL → 执行计划 → 优化建议”的自动化工具。元数据驱动:让 AI “理解”你的数据库结构,减少幻觉。闭环验证:基于真实 EXPLAIN,而不是理论分析。成本可控:生成用 Pro 保证质量,优化用 Flash 降低成本。开箱即用:H5 页面 + Spring Boot,一键启动。从“写 SQL”到“描述业务”,AI 负责翻
本文介绍了如何在星图GPU平台上自动化部署【ollama】DeepSeek-R1-Distill-Qwen-7B镜像,构建高效学术论文助手。该模型专为复杂推理优化,支持文献综述整合、LaTeX公式推导与学术化润色,典型应用于科研写作全流程提效,如自动撰写引言段落、推导热传导方程稳定性条件等。
摘要: 随着移动办公需求激增,手机端AI内容导出成为效率瓶颈。《2026年移动端AI应用洞察报告》显示68%用户受困于对话转PDF的"最后一公里"问题。本文对比四种主流方案:直接复制(易乱码)、WPS智能文档(依赖生态)、AI自主转换(兼容性差)和Pandoc命令行(高门槛),指出格式损耗率高达40%。专家建议采用轻量化工具如"DS随心转",其自研引擎能实现
DeepSeek识图模式正式上线,实现国产AI多模态突破。该功能基于DeepSeek-OCR2视觉因果流机制,具备"视觉感知+语义理解+逻辑推理"三重能力,支持物体识别、场景解析、文字提取等五大核心功能。应用场景覆盖办公、教育、医疗等六大领域,如文档图表解析、医疗影像辅助等。技术层面采用原生多模态架构,适配国产芯片,实现全链路自主可控。此次升级填补了国产大模型在多模态领域的空白
中国AI领域迎来重大突破,DeepSeek发布万亿参数大模型V4Pro,采用混合专家架构,支持百万Token上下文处理,实现国产算力适配与开源普惠。该模型在编程、数学推理等任务中表现优异,超越多数开源模型;在金融、法律、医疗等领域展现强大应用潜力。特别值得关注的是,V4Pro深度适配国产芯片,打破海外算力垄断,同时通过开源策略大幅降低AI使用门槛。这一突破标志着中国AI从技术跟随迈向自主创新,为全
本文介绍了DeepSeek V4 API的申请和使用方法。主要内容包括:API功能概述(代码生成、文本处理、对话等),详细申请步骤(注册账号、创建API Key、查看额度),以及Python调用示例(普通请求、流式输出、带上下文对话)。文章还提供了API参数说明和注意事项,帮助开发者快速上手集成DeepSeek V4模型到自己的应用中。
本文实测了DeepSeek V4的代码生成能力,通过两个典型测试案例展示其表现。在快速排序算法实现中,模型生成的Python代码结构清晰、注释完善,并包含全面的测试用例。在Flask Web API开发测试中,模型成功构建了包含用户注册、登录功能的RESTful接口,实现了数据库操作、密码加密、错误处理等核心功能。测试结果表明,DeepSeek V4具备较强的代码生成能力,能够处理算法实现和实际项
文链接(链接跳转异常请到原文中查看):NPU DeepSeek-V4推理优化实践 直播回放链接:DeepSeek-V4昇腾首发:基于CANN的训推优化实践 DeepSeek团队发布了最新的模型DeepSeek-V4系列模型,包含DeepSeek-V4 Flash和DeepSeek-V4 Pro两种规格。通过Compressed Sparse Attention (CSA)和 Heavily Com
它在内容结构、表达流畅度、语气控制上更适合中文内容生产。
DeepSeek V4 发布后,社区对原生多模态能力的期待日益高涨。从小康 Chen 的神秘推文到技术讨论,本文分析 DeepSeek 视觉能力的可能性与挑战。
本文介绍如何利用DeepSeek V4 API构建一个数据分析Agent,能够直接查询数据库并可视化结果。文章首先分析了DeepSeek V4的特性:支持百万token上下文、兼容OpenAI SDK,成本低至0.02元/百万token。然后详细讲解了Function Calling的5步核心机制,并通过一个天气查询示例展示了Agentic Loop的实现原理。最后指出下一步将SQL查询封装为工具
移动端AI对话导出PDF的痛点与解决方案 随着AI助手如“豆包”的普及,68%的用户需将对话转为PDF,但仅15%满意现有方案。核心痛点在移动端复制易丢失格式,手动排版耗时。通过实测四种主流方法: 直接复制:简单但格式混乱; WPS智能文档:一键生成但兼容性有限; AI提示词重构:需技术调整,稳定性不足; Pandoc命令行:排版精准但门槛高。 专家指出,未来需集成化工具解决“最后一公里”问题。推
本文探讨了AI生成内容(如Claude模型)在导出带公式Word文档时的技术瓶颈与解决方案。分析指出,当前直接导出存在公式乱码、排版错乱和内容截断等问题,导致二次编辑成本高企。通过四种主流导出方式的横向评测(直接复制、WPS、Prompt工程、Pandoc),揭示了结构化数据流转的重要性。专家强调需构建"生成即可用"的自动化工具链,推荐采用"AI导出鸭"等集
工具的价值在于解放人类的双手,让思维不再受限于格式。从直接复制到专业工具的进化,本质上是我们对知识沉淀质量的追求。希望本文的对比能帮你找到最适合自己的DeepSeek导出方案。
DeepSeek V4已支持1M超长上下文能力,可一次性处理75万汉字级别的长文档。本文深入解析其技术原理与应用价值,并介绍如何通过DeepSeek本地部署大师在本地安全高效运行V4模型,实现低成本、高隐私的AI长文本处理方案。
DeepSeek v4 Compressor kv cache压缩模块
DeepSeek-V4的意义,不在于又一次刷新了某个基准测试的榜单,而在于它让"百万Token上下文"从一个营销数字,变成了一个工程师可以真正依赖的能力。对于正在构建下一代AI智能体的开发者而言,这是一个值得认真研究的技术节点。长上下文的战役远未结束,但DeepSeek-V4无疑向前推进了一大步。本文同步发布于微信公众号「闻速视界」,欢迎关注,获取最新 AI 技术资讯解读。
当下,人工智能已深度融入众多现代安全平台。在检测环节,行为模型的应用愈发广泛,用以精准剖析分布式环境下的身份验证动态、网络行为轨迹以及身份活动特征。
DeepSeek V4 开源 1.6 万亿参数模型,Scaling Up 路线再创新高。但另一条路线 Scaling Out 也在加速:端侧专精模型正在让 AI 离用户更近。两条路线的场景分化和技术对比。
DeepSeek V4 已经在 SWE-bench 上打到 83.7%,日常编码与 Claude 同级,价格只有 1/10。但它和顶尖闭源模型之间真正的差距,藏在那 10% 最难的任务里。
摘要: 移动端多模态交互正成为AI应用焦点,ChatGPT和Gemini在图像识别上各具特色。ChatGPT采用原生多模态处理,Gemini则深度集成Android系统,支持屏幕内容即时分析。实测显示,在工业公式识别和跨境电商翻译等场景中效率显著提升。专家指出,未来交互将转向“所见即所得”,但低质量图像处理和内容导出仍是瓶颈。工具如DS随心转APP可解决跨平台导出难题,实现AI识图结果的高效流转与
摘要:针对AI生成技术文档导出Word的痛点,文章对比了四种解决方案:直接复制(公式易乱码)、WPS智能文档(兼容性有限)、AI提示词优化(效果波动大)和Pandoc转换(需技术门槛)。测试显示,复杂公式文档仍需15-45分钟手动调整。推荐集成"AI导出鸭"工具,通过结构化数据流转实现一键导出,保留公式/代码/表格格式,将效率提升2-4倍。专家指出,AI内容与办公软件的语义鸿沟
DeepSeek V4技术突破解析:开源模型首次实现高效百万Token上下文处理 【核心创新】 CSA+HCA混合注意力机制: CSA采用4:1压缩+Top-k选择策略,使1M Token序列计算量降至27% HCA实现128倍压缩,提供全局低分辨率感知 混合架构实现KVCache仅需基线2%存储 mHC残差连接: 通过双随机矩阵约束解决61层极深网络训练稳定性 Sinkhorn-Knopp算法2
DeepSeek
——DeepSeek
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net