
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文在LlamaFactory Online平台微调Chinese Tiny LLM - 2B小模型,通过困惑度筛选高质量中文语料,并设计三组中英配比实验。结果显示:微调后模型BLEU-4从11.34跃升至30.44,ROUGE指标全面领先。证明小模型经精细数据喂养,中文能力可媲美大模型,为算力受限团队提供轻量化落地路径。

摘要:随着大模型与物联网的深度融合,传统“指令—执行”式的智能家居系统已难以应对真实场景中复杂、模糊的用户需求。为此,我们推出IoT Agent v3.2——一个基于ReAct(Reasoning + Acting)架构的主动式物联网智能体,旨在从“被动执行者”进化为具备主动感知、逻辑推理、动态技能调用能力的“全能管家”。本文将全面解析其设计理念、数据集构建、工程实现与训练过程,为行业提供可复用的

本文探讨 AI 落地深水区的成本与效率难题,解析阿里 Qwen3.5 通过混合注意力、稀疏 MoE 等技术实现性能跃升与降本增效,并对比 Prompt、RAG 与微调的适用场景,指出企业应结合模型特性规划技术路线,借助平台实现 AI 从能用向好用进阶。

本文针对个人开发者和企业团队在微调大模型时的显卡选择难题,提出云端优先的解决方案。文章指出显存容量是关键瓶颈,而非单纯追求算力,并对比了本地显卡与云端服务的成本差异。重点推荐LLaMA-Factory Online的"灵动超省"模式,该方案能以传统方案1/3的成本提供H100级别算力,支持按需计费和任务保活功能。通过真实案例展示,云端方案在硬件投入、电费和维护成本上均显著优于本

摘要:千亿模型太贵?小模型太傻?本文带你用Qwen3-8B+LightLLM,在LLaMA-Factory Online上打造“快思考、慢思考”兼备的高性价比AI方案,用1/10的成本,撬动企业级AI服务。

大模型对齐方法比较:PPO、DPO和KTO各有优劣。PPO通过强化学习优化模型表现,效果精准但成本高;DPO直接利用偏好数据微调,成本适中效果不错;KTO仅需简单好坏标签,成本最低但精度较差。大厂适合PPO,中小团队推荐DPO,预算有限可选KTO。LLaMA-Factory平台提供一站式训练方案,降低技术门槛,使各类团队都能高效实现模型对齐。

你是谁?“我是一个多才多艺的文学家、书法家和画家,生活在北宋时期。我是苏东坡,我……”这不是穿越剧的台词,而是借助大模型技术实现的真实对话。在人工智能的赋能下,千年前的文豪苏东坡以“数字分身”的形式“复活”,与今人吟诗作对、畅谈人生,展开一场跨越时空的交流。这是大模型的回答。此时的模型如同一个精准的“知识库”,回答客观专业、逻辑清晰,能够可靠地完成信息处理任务。然而其语言风格统一,缺乏个性与情感,

本文针对个人开发者和企业团队在微调大模型时的显卡选择难题,提出云端优先的解决方案。文章指出显存容量是关键瓶颈,而非单纯追求算力,并对比了本地显卡与云端服务的成本差异。重点推荐LLaMA-Factory Online的"灵动超省"模式,该方案能以传统方案1/3的成本提供H100级别算力,支持按需计费和任务保活功能。通过真实案例展示,云端方案在硬件投入、电费和维护成本上均显著优于本

如何用极低成本落地医疗AI?本文揭秘基于LLaMA-Factory Online的Qwen3-VL实战:16k数据,DeepSpeed 2避坑指南,稀疏激活(A3B)推理实测——让30B大模型在消费级显卡上流畅运行!

一夜之间,DeepSeeK 最新开源的模型已经被硅谷夸疯了。目前是一个 “模型预训练+少量微调+快速部署” 的黄金窗口。本文选取近期热度较高的五款模型重磅盘点。









