logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

深度学习落地项目 呼叫中心系统

深度学习落地项目 呼叫中心系统作为软件项目,我实现了十多个软件项目,其中最让我为止陶醉的有三个项目、呼叫中心项目,智慧医疗,档案分析。这些项目具有一个共同的属性,就是通过lstm实现对权重状态的转变。呼叫中心很好理解,实现的是语音处理系列的操作,当然项目中的整个模块也包含着客户管理系统。对客户的来电手机进行手机,这个时候就涉及到电话的有效时间性验证问题,我们怎么去识别出来一个电话的机主...

#语音识别#深度学习
llama factory 大数据量下训练失败

这个警告提示文件中缺少 SHA-1 哈希值。虽然这是一个警告,但它提示数据集的信息文件可能不完整或被篡改。这个错误表明你试图加载的数据集文件块太大,超过了int32_t能表示的最大值。这通常是因为数据集文件块的大小设置不当。这两个错误最终导致数据集生成失败,并抛出。

文章图片
#python#开发语言
解密“精准劝阻”:基于大数据与AI的反诈骗智能体系统深度解析

反诈骗智能体”是大数据和AI技术在社会治理领域最复杂、也最具争议的应用之一。它不再是实验室里的算法,而是已经深入到我们每一次转账、每一次通话中的“超级大脑”。作为技术人,我们既要探索如何将AI的能力发挥到极致,去构建更强大的“守护神”;也要时刻保持警醒,思考如何为这股强大的力量,装上“隐私保护”(如联邦学习、差分隐私)和“伦理道德”的刹车。你如何看待这种“AI反诈”模式?你是否经历过类似的“精准劝

#大数据#人工智能
解密“精准劝阻”:基于大数据与AI的反诈骗智能体系统深度解析

反诈骗智能体”是大数据和AI技术在社会治理领域最复杂、也最具争议的应用之一。它不再是实验室里的算法,而是已经深入到我们每一次转账、每一次通话中的“超级大脑”。作为技术人,我们既要探索如何将AI的能力发挥到极致,去构建更强大的“守护神”;也要时刻保持警醒,思考如何为这股强大的力量,装上“隐私保护”(如联邦学习、差分隐私)和“伦理道德”的刹车。你如何看待这种“AI反诈”模式?你是否经历过类似的“精准劝

#大数据#人工智能
【万字长文深度剖析】从0到1,我们如何构建金融投研大模型智能体(Agent)?——ReAct、数据合成与工程优化全景实践

在金融投研这个信息爆炸的领域,分析师的每一天都像是在与海量数据进行一场没有硝烟的战争。传统的工作流不仅效率低下,更容易错失关键的Alpha信息。为了彻底改变这一现状,我们团队从0到1构建了一个由大模型驱动的投研分析智能体(Agent)。本文将毫无保留地分享该项目的核心技术路径与关键决策,从为什么我们判定传统RAG架构已到瓶颈,到自研ReAct Agent框架的设计哲学与Prompt工程细节,再到我

#金融#react.js#前端
llama factory lora 微调 qwen2.5 7B Instruct模型

项目背景 甲方提供一台三卡4080显卡 需要进行qwen2.5 7b Instruct模型进行微调。以下为整体设计。要使用对进行,流程与之前提到的模型类似。LoRA 微调是一种高效的微调方法,通过低秩适配器层来调整预训练模型的权重,而不是全量训练整个模型。

文章图片
100%离线部署!用Qwen2.5 14B+LightRAG为中国船舶打造安全私有知识库

🌟【100%离线部署!用Qwen2.5 14B+LightRAG为中国船舶打造安全私有知识库】🌟还在担心企业数据泄露?需要完全离线的智能知识库?中国船舶的领导看过来!💡今天分享一套,基于国产Qwen2.5 14B大模型 + LightRAG框架,安全性和性能双保障!

文章图片
#安全
2025年开源大模型技术全景图

迈向2025年,开源大型语言模型(LLM)生态系统已不再仅仅是闭源模型的补充,而是成为推动AI创新与民主化的核心引擎。其技术全景展现了一个高度模块化、协作共生且快速演进的复杂网络。

#开源
2025年开源大模型技术全景图

迈向2025年,开源大型语言模型(LLM)生态系统已不再仅仅是闭源模型的补充,而是成为推动AI创新与民主化的核心引擎。其技术全景展现了一个高度模块化、协作共生且快速演进的复杂网络。

#开源
ALBERT文本分类任务实现

#! -*- coding:utf-8 -*-# 情感分析类似,加载albert_zh权重(https://github.com/brightmart/albert_zh)import jsonimport osimport numpy as npimport pandas as pdfrom keras_radam import RAdamfrom bert4keras.b...

    共 57 条
  • 1
  • 2
  • 3
  • 6
  • 请选择