
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
在理解RAG流程后,从零微调BERT为Embedding模型的全过程,包括数据集构建、模型训练与效果评估。项目基于FlagEmbedding框架,展示了不同负样本数量对召回效果的影响,并与BGE-M3模型做对比。文中还分析了训练过程中的核心代码与关键参数,适合对Embedding模型微调感兴趣的开发者参考。附带完整代码与资源下载链接。

实战项目展示了如何使用 LangGraph 构建具备工具调用、结果验证与流程总结功能的数学智能体。项目中集成了加法与乘法工具、提示词模板、少样本示例,以及状态管理和流程控制,实现了完整的计算与判断流程。

结合 Langchain 官方文档,通过 with_structured_output 实现大模型的结构化输出。相较官方示例,新增了 Prompt 模板填充与 Few-shot 提示词技术,提升了如 gpt-4o-mini 等模型的结构化输出能力。还对 PydanticOutputParser 及文本分类评估进行了补充,并提供完整代码与数据资源下载链接
本文探讨了基于MTEB框架对文本嵌入(embedding)模型进行微调的新思路,区别于传统端到端分类训练,该方法优化模型生成语义相似向量的能力。实验分为三部分:首先评估原始BGE-small模型在AGNews数据集上的kNN分类准确率为77.8%;然后使用FlagEmbedding工具进行微调,重点分析same_dataset_within_batch参数对训练效率的影响;最后对比微调前后的模型表

本文介绍了一套有效的问题改写提示词,经过实际测试,使用该提示词后,qwen-2.5-7B模型在hotpot数据集上的命中率从82%提升至91%。这套提示词使得qwen-2.5-7B的问题改写能力可以与gpt-4o等强大模型媲美,显著提升多跳问题的处理效果。
在GPU训练模型过程中,发现GPU停止工作,尽管显存仍被占用。通过nvidia-smi命令检查,GPU当前温度为87°C,接近最大工作温度93°C,但尚未达到关机温度98°C。推测长时间运行导致温度过高,GPU自动停止工作。

介绍了如何使用 MTEB(Massive Text Embedding Benchmark)对文本嵌入模型进行文本分类任务评估,涵盖逻辑回归与KNN两种方法的实现与对比。通过使用BERT和bge-m3模型,展示了embedding质量对分类效果的影响。同时,详细debug了MTEB的评估流程,并提供了自定义数据集的接入方式,为后续微调embedding模型打下基础。
在5090显卡(32GB显存)上运行Qwen3-30B大语言模型时遇到的显存不足问题及解决方案。发现除了模型参数外,KV缓存等中间状态会消耗大量显存。通过使用vLLM框架并设置合理的max_model_len参数(如2048),可以有效控制显存使用。
本文介绍了三种方法,评估两个字符串之间的相似度:基于字符n-gram的规则算法(如ROUGE、BLEU),通过嵌入模型将文本编码为向量并计算余弦相似度,以及使用大模型直接评判文本相关性。文章详细探讨了这些方法的实现细节及适用场景,并提供了Python示例代码,帮助读者理解和应用不同的方法来满足具体需求。

本文分享了在Mac mini M4(16G内存)上部署大模型的经验。模型推理推荐使用Ollama,其底层基于llama.cpp但提供了更友好的API接口和模型管理功能,适合快速部署。vLLM暂不支持Mac的MPS加速。模型微调建议采用Unsloth框架,相比LLamaFactory具有内存占用小、微调快的优势。







