
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文探讨AI时代软件工程(SE)与AI的协同发展(SE4AI与AI4SE),分析传统软件开发与AI系统的差异。重点包括:1)AI系统质量的多维评估(准确性、公平性、鲁棒性等);2)归纳思维与演绎思维的对比;3)领域自适应与扩散模型在自动驾驶测试中的应用;4)LLM生成用户故事的质量评估;5)安全设计原则(如非ML代码约束AI输出)。强调人机协作与系统化风险控制,提出通过分层保障机制(如物理熔断器)
本文探讨AI时代软件工程(SE)与AI的协同发展(SE4AI与AI4SE),分析传统软件开发与AI系统的差异。重点包括:1)AI系统质量的多维评估(准确性、公平性、鲁棒性等);2)归纳思维与演绎思维的对比;3)领域自适应与扩散模型在自动驾驶测试中的应用;4)LLM生成用户故事的质量评估;5)安全设计原则(如非ML代码约束AI输出)。强调人机协作与系统化风险控制,提出通过分层保障机制(如物理熔断器)
这篇博客精解了两大深度学习里程碑:Transformer与GAN。Transformer凭借自注意力机制,取代RNN/CNN,解决了长程依赖与并行化的核心难题,成为当今大模型的基础。GAN开创了生成器与判别器对抗的训练范式,无需复杂概率计算,直接生成高质量样本,定义了生成模型的新方向。文章对比了二者的核心创新、优势(并行/高质生成)与缺陷(自回归瓶颈/训练不稳定),并概述了其深远影响。
本文介绍了在Kaggle上解决文本作者分类任务的完整流程。首先对数据进行预处理,使用TF-IDF和Count两种向量化方法,并尝试逻辑回归、朴素贝叶斯和SVM等传统机器学习模型。随后通过网格搜索进行参数调优,并引入GloVe词向量结合XGBoost的方法。最后展示了深度学习解决方案,包括构建嵌入矩阵、使用LSTM/GRU等循环神经网络结构,以及模型训练和预测提交过程。整个流程涵盖了从基础特征工程到
本文介绍了两种解决Kaggle科学考试选择题的AI方法。第一种是直接调用Flan-T5小模型,通过设计Prompt提示词让模型按正确概率排序选项。第二种采用RAG(检索增强生成)技术,结合70B超大模型Platypus2,通过分片存储和动态加载在有限GPU内存下运行。RAG方法包含四个关键技术:模型分片存储、分层处理流水线、多GPU并行计算和内存优化策略,实现了在单个16GB GPU上运行140G
本文介绍了在Kaggle上解决文本作者分类任务的完整流程。首先对数据进行预处理,使用TF-IDF和Count两种向量化方法,并尝试逻辑回归、朴素贝叶斯和SVM等传统机器学习模型。随后通过网格搜索进行参数调优,并引入GloVe词向量结合XGBoost的方法。最后展示了深度学习解决方案,包括构建嵌入矩阵、使用LSTM/GRU等循环神经网络结构,以及模型训练和预测提交过程。整个流程涵盖了从基础特征工程到
本文介绍了两种优化大语言模型(LLM)输出的方法:RLHF(人类反馈强化学习)和DPO(直接偏好优化)。RLHF通过人类评估和强化学习调整模型输出,而DPO则直接利用偏好数据优化模型。文章以"漫画真人化";话题为例,展示了DPO微调实践:通过构建支持/反对回答数据集(10%支持率),对Breeze-7B模型进行微调,使输出明显偏向反对立场。结果显示,微调后模型负面表述增多,立场更加鲜明,验证了DP
本文介绍了如何微调大型语言模型(LLM)使其能够创作唐诗。作者使用MediaTek的Breeze-7B-Instruct模型,通过4-bit量化技术降低内存消耗,并采用LoRA方法进行高效微调。关键步骤包括:1)准备包含1040首唐诗的训练数据;2)设置特定格式的prompt模板;3)训练模型理解并续写唐诗。结果显示,微调后的模型能生成连贯的唐诗,相比微调前仅重复输入词汇的表现有明显提升。这种方法
本文介绍了使用ResNet50预训练模型进行猫狗图像分类的完整流程。首先从Kaggle数据集解压图片并处理数据,将文件名转换为独热标签(猫[0,1],狗[1,0])。然后构建ResNet50模型,移除原始分类层并改为二分类softmax输出,使用ImageNet预训练权重初始化。模型在训练集上训练20个epoch后,在验证集上准确率达到98%以上。最后对测试集进行预测并生成提交文件。整个流程包括数
本文介绍了Quora问题对相似度检测的完整流程。首先通过EDA分析问题文本特征(长度、词频、特殊符号),然后提取两个关键特征:公共单词比例和TF-IDF余弦相似度。为解决数据不平衡问题,采用负样本复制方法调整正负样本比例。最后使用XGBoost模型进行训练,设置早停机制防止过拟合,最终输出预测概率。该方法能有效识别语义相似的问题对,提升问答平台内容质量。