logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

transformer.HfArgumentParser案例以及Debug

HfArgumentParser可以将类对象中的实例属性转换成转换为解析参数。类对象是@dataclass()创建的类对象。本文提供了Pycharm的参数输入方式,可用作Debug

文章图片
#pycharm
把标注数据导入到知识图谱

使用 Doccano 标注了一些数据,包括命名实体识别、关系和文本分类的标注的数据;首先将标注数据导入到Doccano,查看一下标注结果;使用py2neopython工具包,将标注数据导入到neo4j图数据库;

文章图片
#知识图谱
python 爬虫 request get或post传参

python requestget 和 post 参数示例,填充请求头和数据字段

文章图片
#python#爬虫#开发语言
Mac M4 芯片运行大模型指南,包括模型微调与推理

本文分享了在Mac mini M4(16G内存)上部署大模型的经验。模型推理推荐使用Ollama,其底层基于llama.cpp但提供了更友好的API接口和模型管理功能,适合快速部署。vLLM暂不支持Mac的MPS加速。模型微调建议采用Unsloth框架,相比LLamaFactory具有内存占用小、微调快的优势。

#自然语言处理#人工智能
llamafactory SFT 从断点恢复训练

手动恢复训练可通过修改resume_from_checkpoint参数实现,但为减轻手动负担,编写了自动恢复训练的Shell脚本。

文章图片
#人工智能
llama-factory SFT系列教程 (三),chatglm3-6B 大模型命名实体识别实战

利用 llama-factory 框架,基于 chatglm3-6B 模型 做命名实体识别任务;

文章图片
#自然语言处理#人工智能
LangGraph 自定义工具调用,大模型使用加法和乘法工具的工作流实现

文章提出了采用few-shot学习的方法,通过给大模型提供几个示例来激活其工具调用能力,而非进行复杂的微调。文章通过构建工作流结构,包括llm节点(生成工具调用和结果输出)和action节点(运行工具调用并输出结果),展示了自动化实现工具调用和结果处理的流程。工作流的优势在于能够简化流程,自动处理大模型输出、工具调用及结果反馈的循环。

文章图片
#人工智能#机器学习#深度学习
大模型生成RAG评估数据集并计算hit_rate 和 mrr

本文使用大模型自动生成RAG 问答数据集。使用BM25关键词作为检索器,然后在问答数据集上评估该检索器的效果。输入是一篇文本,使用llamaindex加载该文本,使用prompt让大模型针对输入的文本生成提问。l利用 chatglm3-6B 构建CustomLLM;使用prompt和chatglm,结合文本生成对应的问题,构建RAG问答数据集;构建基于关键词的检索器;评估在数据集上的结果;

文章图片
#自然语言处理
利用langchain 做大模型 Few-shot Learning 提示,包括固定和向量相似的动态样本筛选

本文介绍了Few-shot Learning,相对于大模型微调,通过提供少量样本示例来提升模型在特定任务上的表现。固定样本提示每次使用相同的示例,而动态样本提示则根据当前任务选择相似的示例。通过示例代码展示了如何在LangChain中实现固定和动态样本提示,以及如何利用向量相似度算法选择最相似的样本进行推理,从而提高模型性能。

文章图片
#人工智能#机器学习#自然语言处理
vllm 推理报错,无法导入本地大模型路径

是本地经过lora权重合并后的大模型路径,无论是使用相对路径还是绝对路径都会报错;进行大模型推理时,出现了报错,无法从本地路径导入大模型;升级一下 vllm 的版本就好了。

文章图片
#python#人工智能
    共 134 条
  • 1
  • 2
  • 3
  • 14
  • 请选择