登录社区云,与社区用户共同成长
邀请您加入社区
发现和探索最受欢迎的社区&标签
NVIDIA等联合推出PhyCritic:让AI学会像物理学家一样评判世界
它能把代码转译成框架无关的中间表示,让你可以用 PyTorch 写代码,然后在 TensorFlow 的后端上运行,或者反之。这通常是因为“数据漂移”(Data Drift),带清都亡了,你的模型还在搞反清复明那一套。做 AI 开发的时候,好不容易找到一篇绝佳论文,代码是 PyTorch 写的,而基础设施全套是 TensorFlow。两周前训练出一个准确率 95% 的模型,今天想复现,却死活想不起
本文探讨了如何在16GB显存+32GB内存的平民硬件上高效部署大型语言模型。通过混合专家(MoE)架构的稀疏激活特性和Ktransformer技术的智能资源调度,成功突破了传统稠密模型的硬件限制。文章提供了经过实测的模型选型清单(包括Qwen3-30B-A3B等),详细解析了安全部署参数配置,并强调必须手动设置显存/内存占用上限(显存≤12GB,内存≤18GB)以确保系统稳定。
【论文写作工具顶流榜单】PaperRed以99分高居榜首,提供选题→降重全流程服务(1.2元/千字+免费查重);毕业之家专注毕业论文(双率保障);豆包学术版适合中文入门;DeepSeekScholar是理工科免费神器;Claude3主打英文润色。避坑提示:警惕隐性收费,优先选专业降AI工具如PaperRed。学生党推荐组合:毕业论文用PaperRed+毕业之家,课程论文选PaperRed+豆包,理
在这场激战中,我们看到了 Claude Code 的极致精致与商业闭环,也看到了 OpenCode 的包容自由与极客精神。2026 年将是行业大整合的开端,现在并不是急于选边站队的时候。对开发者而言,最好的策略是根据“问题的复杂度”与“钱包的厚度”灵活切换工具。你的角色正在从“手动搬砖”转向“代理管理”。最后,请思考一个问题:当 AI 能够完美接管所有终端指令时,代码的价值是否正从“如何编写”转向
摘要: 当祝福类AI应用扩展到感谢信、道歉模板等多任务场景时,多任务微调看似高效却暗藏风险。不同表达任务(如拜年、感谢、道歉)在情绪方向、风险等级和语气要求上差异显著,混合训练可能导致低风险任务污染高风险任务的表达偏好。关键在于判断任务在“表达偏好空间”的共存性:相近任务(拜年+节日问候)可共享模型,而冲突任务(拜年+严肃道歉)需隔离。工程上应分阶段扩展,通过任务标签、数据比例控制和拆分评估来管理
本文提供了一份完整的AI学习七步实战路线图,从理解AI核心概念、掌握机器学习底层逻辑,到深度学习与神经网络探索,再到动手实践项目检验技能。强调通过掌握顶尖工具、提示词工程和API构建应用,以及深耕垂直领域打造个人作品集,帮助读者成为AI领域的专家。文章鼓励读者拥抱AI浪潮,坚持学习,创造价值,为未来做好准备。
本项目是一个基于智能视觉技术的路面缺陷检测系统,采用前后端分离架构。前端使用Vue3+TypeScript+Element Plus,后端采用Flask框架,结合YOLO26和Qwen-VL等多模态AI模型实现双阶段检测:第一阶段快速识别路面缺陷,第二阶段通过大语言模型进行场景确认。系统支持多路摄像头实时监控、智能告警、视频自动录制、AI维修建议生成等功能,并包含维修人员管理、设备登记等配套模块。
摘要:大模型推理中的KV Cache与批处理优化技术 本文深入分析了大模型推理中的两项核心技术:KV Cache管理和批处理策略。KV Cache通过缓存中间计算结果显著提升推理效率,但传统环形缓冲区方案存在内存浪费和无法动态扩展的问题。vLLM提出的PagedAttention借鉴操作系统分页思想,将KV Cache划分为可动态分配的Block,支持Copy-on-Write前缀共享,使内存利用
MIT新项目研究AI如何有效对抗全球贫困
本文为AI大模型零基础学习者量身定制了一份12个月的学习计划,分为四个阶段:第一阶段(0-2个月)打牢数学、编程及机器学习基础;第二阶段(3-5个月)深入学习大模型核心原理、Transformer架构、Prompt工程及常用工具;第三阶段(6-9个月)学习模型微调技术、RAG、应用框架及部署优化;第四阶段(10-12个月)可选择性深入多模态大模型、RLHF等方向,并进行复杂项目实战。计划强调动手实
AI 是存在非确定性的,它偶尔会“发疯”。代码校验:用正则或 Schema 验证 JSON 格式(最便宜高效)。LLM 裁判:用另一个模型检查回复是否包含敏感信息或事实错误。人工介入(Human-in-the-loop):在执行涉及金钱(如转账、下单)的操作前,必须暂停并等待人工确认。本篇小结构建 Agent 不是写一段 Prompt,而是设计一套系统。通过反思提升质量,通过工具扩展能力,通过规划
Transformer作为当前大语言模型的基础架构,其核心在于自注意力机制。本文从背景介绍出发,详细解析了注意力机制、多头注意力机制,深入剖析了Transformer的编码器与解码器结构,并阐述了其在并行处理、长距离依赖捕捉、注意力分布灵活性及可扩展性等方面的优势。通过本文,读者将能全面理解Transformer的工作原理,为深入学习大模型打下坚实基础。
本文介绍了提示工程的概念和五种核心技巧(明确指令、提供示例、角色扮演、分步思考、结构化输出),帮助大模型更好地完成任务。对比了提示工程、RAG和微调的成本、见效速度、效果深度等维度,强调提示工程零成本、灵活、低门槛的优势及局限性。最后,提出了提示工程的最佳实践,将其定位为大模型应用体系中的关键环节,并预告了下期将探讨AI Agent。
大模型应用开发中,数据信任问题关键在于系统设计而非单纯的技术。文章强调,用户信任源于数据来源的准确、权威和及时,以及数据流转流程的公开透明。开发者需从知识库管理、模型选择、数据透明化和审计日志等方面入手,确保系统非黑盒操作,提升用户信任度。收藏本文,助你轻松应对大模型应用开发中的信任挑战!
多测试设备联调与多物理信息融合,是新能源汽车从功能测试走向性能/可靠性/智能化测试的必由之路。依托总线、电参、热流、位置、车载传感器的全域采集能力,可构建统一时空基准的融合测试体系,显著提升问题定位效率、优化控制策略、沉淀数据资产。未来结合大模型与数字孪生,将实现自动工况生成、自动故障诊断、自动策略寻优,推动整车测试向自动化、智能化、无人化演进。
本文以DeepSeek-OCR-2为例,详解其核心特性、本地部署及vLLM推理实战。并延伸后处理策略,涵盖数据清洗、RAG优化到多模态检索,打通从“读出来”到“用起来”的全链路,为高质量数据集构建提供实战指南。
2025 年,天云数据明确自身生态定位:打破大厂技术垄断,做MaaS时代的“操作系统”,让企业获取智能像用水用电一样简单。2025年,天云数据坚决摒弃技术堆砌的形式主义,让AI从“能耗巨兽”转变为实实在在的“价值创造者”,在能源、应急管理、康养、交通、文化、生命科学、金融等领域,完成了从“概念验证”到“规模化部署”的质变,让技术真正落地为生产力。从预训练的喧嚣到后训练的理性,从鹦鹉的模仿到乌鸦的探
例如,国内某知名时尚女装品牌,通过部署此类标准化模板,在半年内将全渠道订单的“门店发货”占比提升至35%,不仅大幅降低了物流成本,还将线下门店的库存周转率平均提升了15%。本文将深入业务腹地,揭示如何通过“全渠道一盘货”的最佳实践模板与“AI预测驱动的动态调拨”,将沉睡的、割裂的库存资产,转化为响应敏捷、高效周转的利润引擎。“AI动态调拨”解决了“往哪动”的问题。“一盘货”模板中订单路由的履约数据
三星在全球17个城市地标投放3D巨幕广告,展示Galaxy AI的创新体验。从2月11日起,首尔、伦敦、洛杉矶等城市的地标建筑陆续呈现这一3D视频广告,为2月26日的Galaxy全球新品发布会预热。发布会将通过三星官网等渠道全球直播,观众可关注Samsung.com.cn获取最新信息。
本文详细介绍了如何使用PyTorch从零开始构建完整的Transformer模型。内容涵盖了位置编码、多头注意力、前馈网络、编码器层、解码器层等关键组件的实现,并提供了完整的模型结构和训练示例。文章还讨论了模型的应用场景和性能优化技巧,适合想要学习大模型的小白程序员参考和收藏。
本文详细解析了大模型(如GPT和Llama)的训练流程,涵盖预训练(Pretrain)、监督微调(SFT)、奖励建模(RM)以及强化学习(PPO和DPO)。预训练阶段通过海量文本学习人类语言和知识,SFT使模型学会遵循指令,RM将人类偏好量化为奖励信号,而PPO和DPO则通过强化学习优化模型输出。文章对比了PPO与DPO在训练范式、复杂度、成本和适用场景上的差异,并介绍了Llama模型训练的特殊流
本文介绍了RAG技术如何通过检索资料降低AI幻觉问题,并引出升级版本Agentic RAG。传统RAG通过“先查资料再回答”的模式提升AI可靠性,但存在只检索一次的局限。Agentic RAG则引入智能体(Agent)概念,能理解、拆解任务并多次检索,更接近真正的AI助手。文章对比了两者在动态决策、检索次数、任务拆解等方面的差异,指出Agentic RAG是RAG的进化形态,代表了AI从简单问答向
本文介绍了Skills作为技术从业者高效协作载体的核心价值,通过解析Skills与Agent的技术区别、高频应用场景以及最佳实践,帮助读者理解如何利用Skills减少重复开发、提升部署效率。文章强调Skills是封装了特定技术任务的标准化可复用模块,能够解决技术场景中的重复开发、流程不规范、Prompt调试繁琐三大痛点。同时,文章详细阐述了Skills在代码开发与评审、运维部署与监控、数据库运维、
本文深入探讨了Agent与大模型记忆系统的核心设计原理,强调其工程化落地需平衡速度、容量与成本。文章提出了分层存储、统一表示、动态调度和容错一致性四大原理,并设计了高速、操作、持久和扩展四层架构,实现高效的多模态记忆管理。同时,文章还介绍了与现有系统的融合及工程化落地的关键步骤,为相关系统设计提供全面参考。
本文详细解析了Transformer模型的每一层结构,从输入表示层的词嵌入与位置编码,到编码器的多头自注意力机制和前馈网络,再到解码器的掩码自注意力与编码器-解码器注意力,最后是输出层的线性变换与softmax。文章通过具体的数学计算示例,帮助读者理解Transformer的完整计算流程,并探讨了关键技术与优化细节,如缩放点积注意力、多头注意力的优势、残差连接的作用等。此外,还介绍了Transfo
本文用生活化类比(如咖啡厅聊天、图书馆借书、小组讨论、多角度拍照)通俗易懂地解释了AI为何需要以及如何运用注意力机制处理信息。深入剖析了QKV机制、自注意力、缩放点积注意力、多头注意力等核心概念,并介绍了三种注意力类型(自注意力、交叉注意力、因果注意力)及其优势。文章强调注意力机制是现代AI实现智能理解的关键,让模型能像人类一样选择性地关注重要信息,提升性能并增强可解释性。---
2026年学生论文写作工具推荐:PaperRed以全流程服务(选题到答辩)和超高性价比(1.2元/千字)成为综合首选;毕业之家AI专注毕业论文全流程(39元/篇);SpeedAI提供0.8元/千字的应急降重;豆包学术助手免费提供灵感启发;英文写作推荐DeepSeek+Grammarly组合。重点提醒:需警惕AI率过高、虚假查重和格式不合规三大陷阱,建议选择能提供真实文献引用和AI检测规避功能的平台
本文从最基础的Attention机制讲起,深入浅出地解释了KV Cache的概念及其重要性。通过将历史token的Key/Value向量缓存起来,KV Cache避免了在自回归生成中重复计算Attention,大大降低了计算复杂度。文章还探讨了KV Cache在工程实践中的挑战,如显存管理问题,并介绍了vLLM和SGLang等优化方案。最后总结出KV Cache是AI推理中至关重要的优化技术,是“
北京八大处集团董事长赵延勇,艾尔建企业事务、公立及商务部执行总监陈之平,腾讯云副总裁、腾讯健康副总裁闫鹏等领导嘉宾出席仪式并见证签约。
本文探讨了如何通过“Agent Skills”让大语言模型(LLM)从简单的聊天机器人进化为专业智能体。文章指出,传统通用对话模式存在“博而不精”的问题,而Agent Skills为AI提供了标准化的“入职指南”,使其能捕获流程知识、灵活添加功能模块。Agent Skills具备可组合性、可移植性和执行力三大特点,通过渐进式披露机制和标准化的目录结构,有效突破上下文限制,实现模块化、按需、确定性的
本次更新围绕"记忆系统工程化"和"Agent能力结构化"两大方向,重点推出多视角记忆系统,支持每个Agent拥有独立记忆世界。新增混合检索机制提升召回质量,并优化Token消耗控制。Skills能力升级为本地化存储,MindDock插件实现跨平台接入。记忆删除机制强化为双通道模式,调度系统完成模块化重构。文档记忆支持原文与摘要双轨检索,时间过滤精度提升至秒级
它不是只考某一块,而是全栈式考察ML 基础扎实自动驾驶领域深度理解工程能力 & 部署 & 分布式代码能力在线价值观 & 团队匹配度想冲的同学,真的要提前系统性准备,不要临时抱佛脚。如果你也在冲Tesla / 北美大厂 MLE,但不知道怎么梳理项目、打磨面试话术、补齐自动驾驶 & ML 八股、模拟真实面试节奏,可以看看我们的针对性辅导。我们专注北美 MLE/DS/AI 岗求职,帮你把简历、项目、技术
摘要:镜像视界科技提出"园区运行态势感知与智能体联动中枢"解决方案,通过统一三维空间坐标体系,实现园区运行状态的可视化、智能化管理。该系统采用多源融合三维孪生技术,将各类要素统一投射到同一空间坐标下,构建态势感知引擎和智能体联动架构。核心技术包括像素级空间反演、多视角融合重构、轨迹关联算法等,支持风险预测、自动化调度和闭环审计。该方案适用于工业园区、机场等高复杂度场景,实现&q
本文介绍了AI领域的40个关键概念,包括业务对齐、投资回报率、概念验证、最小可行产品等,帮助小白和程序员快速了解AI的核心要素。文章强调了数据治理、数据质量、机器学习、模型微调等概念的重要性,并解释了如何通过这些概念实现AI的落地和应用。此外,还介绍了A/B测试、模型监控、知识图谱等实用技术,为读者提供了全面的AI学习指南。
阿里巴巴发布Qwen-Image-2.0图像生成模型,在AIArena评测中取得文生图全球第三、图生图编辑全球第二的优异成绩。该模型具备四大技术突破:复杂文字排版引擎、极致写实主义、统一全能模型和高效推理能力,特别在中文处理和商业应用方面表现突出。实测显示其生成内容能显著提升商业指标,同时在传统文化题材处理上独具优势。尽管在数据精度和精细控制方面仍有改进空间,Qwen-Image-2.0的发布标志
首席数据官(CDO)是企业中负责从数据中挖掘商业价值的高管,核心职责涵盖数据战略、数据治理、数据安全、数据生命周期管理及数据分析。现代CDO角色已从早期合规导向转向战略驱动,直接参与数字化转型,常向CEO汇报。CDO通过打破数据孤岛、提升数据素养,帮助企业优化决策、改善客户体验、降低成本并把握新机遇,同时为AI和机器学习提供高质量数据支持。与CIO聚焦技术基础设施不同,CDO侧重数据业务价值创造。
摘要:针对开发者容易分心摸鱼的问题,作者开发了一款基于计算机视觉的离线"AI监工"FocusGuard。系统采用Python+ONNX Runtime实现,核心技术包括:1) YOLOv11-Nano检测手机(COCO ID 67);2) MediaPipe手势识别(支持剪刀手切换休息模式);3) 多线程架构分离UI与推理任务。通过模型轻量化(2GB→40MB)、跳帧策略和状态
OpenClaw(前身为Clawdbot)凭借轻量化部署架构、强大的AI任务自动化执行能力和灵活的生态拓展性,成为企业数字化办公升级的核心工具。阿里云提供的弹性计算资源、成熟的容器化部署环境与企业级安全防护体系,为OpenClaw的稳定运行提供了坚实支撑;而企业微信作为国内主流的企业协同办公平台,与OpenClaw的深度联动,可实现“企业微信发指令、AI自动化落地”的全流程办公提效。本文基于202
攻以守本,唯快不破!2025开源供应链投毒攻击暴涨58%,Agentic AI生态成攻防新焦点
人工审查标准合同的平均漏检率高达27%,而重大法律文档的解读误差导致的企业损失年达480亿美元。与此同时,那些采用AI辅助的法律团队,数据显示合同审查效率提升了8.5倍,风险识别准确率提高了89%,法规遵从成本降低了62%。在这个法律风险日益复杂的时代,DMXAPI作为法律智能化的引领者,正在帮助全球超过3000家律所和企业法务部门,从“经验依赖”走向“数据智能”的精准法律新时代。对律师个人:专业
2025年,开源供应链生态中的恶意投毒攻击已进入高发期,攻击态势进一步呈现多样化及目标范围扩大化等显著趋势。由于开源生态 “轻审核” 机制,从主流公共仓库NPM、PyPI到AI模型托管平台及AI Agent生态市场,投毒攻击的目标范围持续扩大,攻击者使用的技术手法也越来越老练;同时对抗手段也日趋复杂:混淆保护绕过静态扫描、反调试、反沙箱检测、甚至利用LLM生成低特征投毒代码等现象将成常态。
OpenClaw多Agent模式为企业提供高效的AI助手团队解决方案。通过创建4个独立的飞书机器人(主助理、内容创作、技术开发、AI资讯),每个连接专属Gateway和Agent模型(如Claude Opus/Sonnet、Gemini 2.5),实现专业分工。相比单Agent模式,多Gateway架构具有配置清晰、互不干扰、无需手动切换等优势。系统采用Profile隔离机制,各Agent拥有独立
本文介绍了硅基流动平台推出的16元代金券活动及其在AI应用中的价值。该代金券可兑换533万Tokens,支持10666次对话,有效期长达180天。文章重点分析了硅基流动作为SillyTavern(酒馆)用户的最优选择,其优势包括:原生DeepSeek支持、低延迟(TTFT仅0.7秒)和良好的生态集成。同时提供了从注册到配置的极简教程,并展示了代金券在批量生成角色卡和模型对比测试中的应用场景。特别值
2024年AI论文写作工具综合评测:PaperRed以99分高居榜首,成为全流程中文论文写作首选;毕业之家AI(96分)专注毕业论文场景,DeepSeekScholar(89分)是理工科研利器,豆包学术版(87分)适合中文入门。四大工具覆盖不同需求:PaperRed性价比最高(1.2元/千字),提供选题到答辩全流程服务;毕业之家AI解决格式混乱等毕业难题;DeepSeekScholar完全免费支持
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net