logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Qwen3 LoRA 微调指南:Alpaca 格式 + PEFT + RK3588 部署

本文介绍了基于Qwen3-0.6B模型的LoRA微调方法,适用于意图识别、文本分类等任务。采用Alpaca数据格式和PEFT框架,提供从数据准备到模型部署的完整流程。主要内容包括:1)Alpaca格式数据转换;2)LoRA微调训练参数配置;3)权重合并方法;4)可选RK3588边缘设备部署方案。该方法支持在单卡24GB显存的GPU上完成训练,通过低秩适配实现高效微调,最终可输出兼容HuggingF

#人工智能#python
LangChain 框架深入解析

LangChain是一个强大的框架,用于构建基于大型语言模型(LLM)的应用程序。它提供模块化设计、链式调用、上下文记忆等功能,支持与多种数据源和工具的集成。核心组件包括模型封装、提示模板、任务链、智能代理等,适用于智能对话、知识问答、自动化任务等多种场景。LangChain简化了LLM应用的开发流程,提高了开发效率和系统灵活性。

#人工智能#架构#深度学习
Attu-Milvus向量数据库可视化工具

本文介绍了Milvus向量数据库的可视化管理工具Attu的两种安装方式:通过Docker容器启动(运行指定命令并设置相关参数)或下载桌面版程序安装。同时说明从Milvus v2.5.0版本开始内置的WebUI工具,可通过浏览器访问9091端口查看数据库详情、管理任务等。Attu作为开源工具,为Milvus提供了便捷的图形化管理界面,支持对集合、索引等核心功能的高效操作。

#milvus
大模型微调框架 LLaMA-Factory 实战指南

LLaMA-Factory是一个整合主流高效训练微调技术的开源框架,旨在降低大模型微调门槛。该项目提供多阶段训练、推理测试、评测和API服务等模块化功能.

Qwen3 LoRA 微调指南:Alpaca 格式 + PEFT + RK3588 部署

本文介绍了基于Qwen3-0.6B模型的LoRA微调方法,适用于意图识别、文本分类等任务。采用Alpaca数据格式和PEFT框架,提供从数据准备到模型部署的完整流程。主要内容包括:1)Alpaca格式数据转换;2)LoRA微调训练参数配置;3)权重合并方法;4)可选RK3588边缘设备部署方案。该方法支持在单卡24GB显存的GPU上完成训练,通过低秩适配实现高效微调,最终可输出兼容HuggingF

#人工智能#python
时序-异常检测和趋势分析

实现了一个完整的时间序列分析工具,结合了深度学习(LSTM)和统计分析方法,可用于异常检测和趋势比较。

#python#lstm
基于知识图谱和Milvus的元数据入库流程

这是一个基于知识图谱增强的RAG(检索增强生成)系统,专门针对技术文档(特别是电力、变电站等工程领域)的知识管理和智能问答。该系统结合了知识图谱构建、向量数据库存储、向量检索、混合搜索和重排序等多种技术。

#知识图谱#milvus#人工智能 +1
基于大模型自动化生成问答对数据集

本文介绍了一个面向电力领域的问答数据集生成工具,通过OpenAI API将电力技术文本自动转化为结构化QA对。该工具采用批处理架构,包含文本分块、LLM生成、规则过滤、领域后处理等模块,支持电压等级提取、技术参数标记等电力专属功能。

#自动化#人工智能#RAG
ollama 容器部署映射端口号修改

本文介绍了Ollama服务的端口查看与修改方法。默认情况下,Ollama监听11434端口,可通过netstat或ss命令确认。修改端口需编辑/etc/systemd/system/ollama.service文件,在[Service]部分添加OLLAMA_HOST环境变量(如0.0.0.0:11435)。修改后需重启服务并验证新端口是否生效。

#人工智能#运维
LangGraph 实战(三):添加记忆功能

本文介绍了如何为聊天机器人添加记忆功能,使其能够记住对话历史。通过使用LangGraph的MemorySaver类,实现了状态的保存和恢复。

#人工智能#python
    共 40 条
  • 1
  • 2
  • 3
  • 4
  • 请选择