
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
选对工具,谋定而后动• 新手和老手选择不同:如果你是编程新手,可以从 Replit 或 Lovable 这类可视化工具入手,它们能让你快速搭建界面。但文章指出,当你需要更精细地控制后端逻辑时,这类工具可能力不从心。如果你有基础,那么像 Cursor 或 Claude Code 这类更专业的编码AI工具会是更好的选择,它们提供更精准的控制。• 别直接写代码,先做计划:这是最重要的建议之一。不要一上来

Openai开源两个模型:gpt-oss-120b,对标 o4-mini,117B 参数,5.1B 激活量,运行该模型,需要 80G 内存,单卡 H100 GPU 可运行。gpt-oss-20b,对标 o4-mini,21B 参数,3.6B 激活量,运行该模型,需要 16G 内存,单卡 4060 Ti 可运行。原生MXFP4量化,模型采用原生MXFP4精度训练MoE层。关于部署,https://g

这篇论文提出了一种通过系统环境扩展和agent经验学习来提升通用agent智能的方法。通过程序化地将工具实例化为可执行的代码,并在数据库结构化的环境中进行操作,实现了大规模的可验证轨迹构建。- 基于这些环境,引入了两阶段agent经验学习框架,使agent能够在一般域中学习基本的工具使用技能,并在目标垂直域中进行细粒度训练。- 广泛的实验结果表明,AgentScaler系列模型在开源模型中达到了最

LeWorldModel 的训练目标就是:从 raw pixels 学一个不会坍塌的 latent 状态空间,并在这个 latent 空间里学习“当前状态 + 动作 → 下一状态”的动力学模型。稳定训练的trick:高斯正则防坍塌阶段【对 latent embedding 加 Gaussian regularizer,使表示分布保持展开,避免所有图像被编码成同一个向量】在机器人控制、智能体规划里,

note智谱AI体验百度文心一言体验科大讯飞大模型体验字节豆包百川智能大模型阿里通义千问商汤商量简要分析:仅从测试“老婆饼为啥没有老婆”这个问题的结果来看,chatglm分点作答有条理(但第三点略有逻辑问题);字节豆包的说法有点胡扯,老婆饼怎么会像低头微笑的女子;百川智能效果还行,把老婆饼的配料和名字缘由都讲了,逻辑也通;阿里通义千问和百度某个答案一毛一样哈哈。欢迎大家提出有意思的case,分享测

Engram:给大语言模型加了个“快速查知识的小模块”。也就是条件记忆模块,实现上,融合静态N-gram嵌入与动态隐藏状态,通过确定性寻址实现O(1)查找,以可扩展查找,作为混合专家(MoE)之外的新稀疏性维度。如此一来,原来的模型(比如MoE架构)靠“实时计算”处理信息,这个模块补了个“静态记忆库”,存着常用的短语、知识片段,后续一键调取,不用重复计算。@[toc]# 一、Engram

相关框架对比:- 需微调模型且资源有限 → Unsloth;- 本地隐私优先的小规模推理 → Ollama;- 复杂逻辑或多模态任务 → SGLang;- 高并发生产环境 → vLLM- 微调SFT和GRPO是确实能学到新知识的- 四种格式(``messages``、`sharegpt`、`alpaca`、`query-response`)在AutoPreprocessor处理下都会转换成ms-s

DeepSeek-V4优化点:1、混合注意力架构:我们设计了一种结合压缩稀疏注意力(Compressed Sparse Attention, CSA)与重度压缩注意力(Heavily Compressed Attention, HCA)的混合注意力机制,显著提升长上下文处理效率。在百万 Token 上下文场景下,DeepSeek-V4-Pro 相较于 DeepSeek-V3.2,单 Token 推

DeepSeek-V4优化点:1、混合注意力架构:我们设计了一种结合压缩稀疏注意力(Compressed Sparse Attention, CSA)与重度压缩注意力(Heavily Compressed Attention, HCA)的混合注意力机制,显著提升长上下文处理效率。在百万 Token 上下文场景下,DeepSeek-V4-Pro 相较于 DeepSeek-V3.2,单 Token 推

claude code确实在工程层面做到很好(T-T 感觉我和模型越来越远了),比如子agent的设计、分为同步/异步任务等Agent = 主循环 + 工具体系 + 权限体系 + 状态管理 + 子任务编排 + UI/体验 + 工程优化Sub-Agent 编排 = Fork 继承上下文 + prompt cache 优化 + Resume 状态恢复 + 后台任务管理 + Agent 间通信 + 默认








