logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

把 LLM 塞进 MCU:在 256 KB RAM 里跑通 7B 级大模型的“变态”压缩方案

摘要:本文介绍了如何将7B参数的大语言模型压缩到198KB,使其能在仅有256KB内存的Cortex-M7芯片上运行。通过三层压缩漏斗(结构压缩、极限量化、SRAM滑动窗口),模型从28GB缩小到198KB,BLEU值仅下降2.1%。关键技术包括MoE转Dense+剪枝、1-bit权重+4-bit激活量化、Flash滑动窗口推理等。最终在480MHz MCU上实现8.3token/s的生成速度,功

#单片机#嵌入式硬件#知识图谱 +4
端侧大模型部署实战:在手机上跑通70亿参数模型

本文介绍了将Qwen2-7B大模型压缩至4GB内存并在移动端高效运行的技术方案。通过AWQ量化、KV-Cache优化和投机解码等技术组合,在骁龙8Gen3上实现了18 tokens/s的推理速度,内存占用从14GB降至3.8GB,精度损失控制在2%以内。文章详细阐述了从模型压缩、推理引擎定制到Android集成的完整流程,包括关键代码实现和性能数据对比。特别针对移动端特性优化了内存管理和计算效率,

#运维#自动化#开发语言 +3
AI Agent智能办公助手:从ChatGPT到真正“干活“的系统

摘要:本文介绍如何构建生产级AIAgent办公自动化系统,基于ReAct框架和函数调用技术,实现自主操作ERP、邮件处理、报表生成等功能。系统包含任务规划、工具调用、记忆管理等核心模块,通过Python实现。在真实企业场景中,日均处理200+工单,准确率达94%,比传统RPA灵活度提升5倍。文章详细解析了技术架构、工具定义、错误处理等关键技术,并展示了物流企业案例的实际效果。同时提出了API成本控

#人工智能#神经网络#迁移学习 +3
生产级RAG系统深度实战:从零构建企业知识库问答引擎

本文深入解析了生产级RAG系统的完整实现方案,突破了传统Demo级RAG的性能瓶颈。系统采用混合检索(Dense+Sparse)、多路召回重排、上下文压缩等核心技术,在LegalQA数据集上实现Recall@10达0.921,生成准确率提升37%。通过精细化文档处理、双索引架构、HyDE查询扩展等技术,有效解决了检索不准、上下文爆炸、溯源困难三大生产级挑战。文章详细阐述了从数据处理、混合检索到生成

#transformer#自动化#pytorch +4
探索边缘计算:赋能物联网的未来

边缘计算作为一种新兴的分布式计算架构,通过在靠近数据源的边缘设备上进行数据处理和分析,有效解决了传统云计算在处理物联网(IoT)数据时面临的延迟高、带宽不足等问题。本文详细探讨了边缘计算的基本概念、技术架构、应用场景及其面临的挑战和未来发展趋势。边缘计算与云计算相辅相成,形成“云边协同”架构,适用于智能工厂、智能交通、智能家居和医疗保健等多个领域。尽管在数据安全、设备管理和标准互操作性等方面存在挑

#边缘计算#物联网#人工智能 +4
把 AI 装进“冰箱贴”——基于超低功耗语音合成的小屏电子价签

摘要: 本文介绍了一种超低功耗离线语音合成方案,将TTS技术集成到硬币大小的电子价签中,成本≤5元。采用nRF52805主控、FastSpeech2-Mini模型(压缩至1.2MB)和差分向量技术,实现单次播报能耗仅0.52μAh,CR2032电池续航达4.6年(每日100次播报)。方案支持多方言热切换,实测MOS分3.7-4.4,量产成本4.8元,已开源模型与硬件设计,首批10万片投产使超市扫码

#语音识别#人工智能#机器学习 +4
基于强化学习的智能体设计与实现:以CartPole平衡任务为例

本文介绍了强化学习的基本概念及其在CartPole平衡任务中的应用。强化学习通过智能体与环境的交互来学习最优策略,其核心要素包括马尔可夫决策过程、策略、价值函数等。文章以CartPole任务为例,详细阐述了使用策略梯度方法和神经网络策略的智能体设计方法,并提供了完整的PyTorch实现代码。通过训练和测试表明,该方法能有效解决CartPole平衡问题。文章还鼓励读者尝试其他强化学习算法,探索更广泛

#人工智能#矩阵#深度学习 +4
深度学习中的注意力机制:原理、应用与实践

摘要:本文系统介绍了注意力机制及其在深度学习中的应用。首先阐述了注意力机制的原理,包括其受人类视觉启发的基本形式、自注意力机制和多头注意力机制的计算过程。其次分析了注意力机制在自然语言处理、计算机视觉和语音识别等领域的应用场景。最后通过PyTorch实现了自注意力模块、Transformer编码器和解码器,并构建了完整的Transformer模型。文章提供了从理论到实践的完整指南,为开发者实现和应

#深度学习#人工智能#机器学习 +4
人工智能在自然语言处理中的应用:从理论到实践的探索

随着深度学习技术的飞速发展,NLP在近年来取得了突破性进展,从文本生成到机器翻译,从情感分析到智能问答,自然语言处理正在深刻改变我们与机器交互的方式,并为众多行业带来新的机遇。人工智能在自然语言处理中的应用已经取得了显著的进展,从预训练语言模型到多模态融合,从文本生成到情感分析,自然语言处理正在深刻改变我们与机器交互的方式。它通过理解用户的问题,从知识库中检索相关信息,并生成准确的答案。例如,BE

#人工智能#自然语言处理#学习 +2
大模型微调的数据工程:从数据清洗到指令构建的完整流水线

本文提出了一套完整的大模型数据工程方案,通过四阶段处理流程显著提升微调效果:1)多维度数据健康诊断,构建包含完整性、毒性、难度等指标的评估体系;2)规则引擎与LLM协同的智能清洗系统,实现从58%到94%的可用率提升;3)基于指令演化的数据增强技术,通过策略池自动扩展高质量样本;4)动态配比优化算法,结合课程学习和贝叶斯搜索实现最优数据组合。实验表明,该方案可使7B模型在垂直任务上超越13B基线,

#人工智能#深度学习#python +4
    共 269 条
  • 1
  • 2
  • 3
  • 27
  • 请选择