
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文介绍了LingualSpark AI故事生成模块的设计思路与进展。该模块旨在通过语境化方式帮助外语学习者掌握词汇,主要特点包括:按年龄段生成不同难度故事、融入用户词库词汇、支持多语言主题、虚构主角设计和流式输出等。文章详细阐述了从词库驱动到多阶段生成的实现路径,包括年龄段分级、兴趣偏好融入、可解释生成过程展示等技术亮点。目前已完成基础功能开发,但仍存在兜底故事质量、学习闭环等不足。未来计划增强
本文介绍了基于Qwen3-8B模型的儿童故事生成微调实验。研究采用4-bit QLoRA方法在单卡RTX 4090上对1600条训练数据进行微调,重点提升模型在词汇难度、关键词约束和叙事结构等条件下的生成能力。实验结果显示,微调后模型在ROUGE-L指标上提升21.1%,BLEU提升4.9%,生成长度缩短27.8%,更符合儿童故事特征。人工评测表明模型在任务贴合度和输出规范性方面有明显改进,但在严
本文记录了作者在微调Qwen3-8B-Think模型时的一个关键失误。作者仅使用Alpaca格式数据(instruction/input/output)进行训练,忽略了保留模型原有的思考推理过程,导致微调后模型虽然回答速度变快,但丧失了重要的链式推理(CoT)能力。文章详细分析了问题根源:训练数据只奖励最终答案而忽略推理过程,导致模型被对齐到"短答优先"模式。作者总结了Thin
本文提出了一种基于Qwen3-7B模型的微调方案,旨在融合故事生成与问答能力。方案采用LoRA适配器微调策略,在单卡RTX 3090/4090硬件条件下实现高效训练。通过整合TinyStories(叙事流畅性)、WritingPrompts(长故事生成)和FairytaleQA(阅读理解)三个数据集的特点,构建分阶段训练流程:首阶段建立基础叙事能力,次阶段增强复杂故事生成,最终融入问答理解能力。数







