logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

检索增强生成(RAG)、微调(Fine-tuning)与知识蒸馏(Knowledge Distillation):核心差异与技术

在自然语言处理(NLP)领域,大型预训练语言模型(如GPT、BERT系列)的崛起彻底改变了技术生态。面对实际业务场景中模型效果优化与资源效率平衡的永恒命题,开发者主要依赖三大技术路径:检索增强生成(Retrieval-Augmented Generation, RAG)、模型微调(Fine-tuning)和知识蒸馏(Knowledge Distillation)。本文将通过技术原理拆解、典型应用场

文章图片
#人工智能#算法
Java程序员转行AI大模型:就业指南与实用技巧

在人工智能(AI)迅速发展的背景下,从传统的编程领域如Java程序员转向大模型开发是一个既充满挑战也充满机遇的过程。对于 Java 程序员来说,这也是一个实现职业转型、提升薪资待遇的绝佳机遇。前排提示,文末有大模型AGI-CSDN独家资料包哦!一、明确大模型概念简单来说,大模型就是具有大量参数和强大计算能力的人工智能模型,可以处理各种复杂的任务,如自然语言处理、图像识别等。想象一下,大模型就像是一

文章图片
#java#人工智能#开发语言 +3
Ollama 部署本地大模型与使用

在上一章中,我们通过 HuggingFace 成功调用了 Llama3 模型,但整个过程相对繁琐。不仅需要在 HuggingFace 上申请访问权限,还要编写代码来调用模型。如果我们需要提供外部访问接口,还需要自行实现。本文将介绍如何通过 Ollama 部署 Llama3 模型,并通过接口调用,简化这一过程。前排提示,文末有大模型AGI-CSDN独家资料包哦!Ollama 是一个本地运行的大语言模

文章图片
#java#数据库#mybatis +3
大模型训练(超全面!超详细!)收藏这一篇就够了!

大模型训练被分解成了预训练,监督调优,对齐等阶段。先看预训练,预训练,即Pre-training。预训练的目的是让模型学习语言的特性,主要是学习语言表达的流畅性和规则。至于具体的语言任务,比如对话,角色扮演,信息抽取,翻译,阅读理解,问答等,则需要放到监督调优。预训练是大模型的基础和核心,预训练阶段决定了模型的基础能力和上限。

文章图片
#语言模型#知识图谱#人工智能 +2
详细教程:自定义大模型之微调ChatGPT

Fine-tuning理论上很复杂,但是OpenAI把这个功能完善到任何一个人看了就能做出来的程度。我们先从原理入手,你看这张图,左边是Pre-trained LLM (预训练大模型模型),也就是像ChatGPT这样的模型;右边是Fine-tuned LLM (微调过的语言大模型),中间就是进行微调的过程,它需要我们提供一些「ChatGPT提供不了但是我们需要的东西」。比如说我们这个回答就是想微调

文章图片
#人工智能#开发语言#机器学习 +1
使用Java也能开发大模型应用?让我们一探究竟

研究了这三个工具的官方文档,发现OpenNLP这个框架更满足我的需求,而且OpenNLP框架底层在加载深度学习模型时,也是借助了ONNX的能力。Deeplearning4j框架更适合自己使用Java手撕一些经典的深度学习模型,对于当前大模型的支持较弱。

文章图片
#java#开发语言#语言模型 +3
学大模型必看!手把手带你从零微调大模型!

大模型微调本身是一件非常复杂且技术难度很高的任务,因此本篇文章仅从零开始,手把手带你走一遍微调大模型的过程,并不会涉及过多技术细节。希望通过本文,你可以了解微调大模型的流程。微调大模型需要非常高的电脑配置,比如GPU环境,相当于你在已经预训练好的基础上再对大模型进行一次小的训练。但是不用担心,本篇文章会使用阿里魔塔社区提供的集成环境来进行,无需使用你自己的电脑配置环境。本次微调的大模型是零一万物的

文章图片
#人工智能#语言模型#学习
Java开发者也能看懂的大模型应用开发实践!!!

做AI大模型应用的开发其实Java也能写,那么本文就一个Java开发者的立场,构建实现一个最基础的大模型应用系统。前排提示,文末有大模型AGI-CSDN独家资料包哦!让大模型理解文本(知识库)内容,基于知识库范围内的内容进行回答对话而基于知识库的回答会帮助我们解决哪些问题呢?✅ 节省大模型训练成本:我们知道ChatGPT的知识内容停留在2021年,最新的知识它并不知道,而检索增强生成则可以解决大模

文章图片
#java#开发语言#人工智能 +2
一口气了解大模型相关通识,基础笔记!

,特指部分参数的微调方法,这种方法算力功耗比更高,也是目前最为常见的微调方法;除此之外,Fine-Tuning也可以代指全部微调方法,同时OpenAI中模型微调API的名称也是需要注意的是,OpenAI提供的在线微调方法也是一种高效微调方法,并不Fine-Tuning,是全量微调;微调, Fine-Tuning,一般指全参数的微调 (全量微调) ,指是一类较早诞生的微调方法,全参数微调需要消耗大量

文章图片
#语言模型#自然语言处理#人工智能
大模型瘦身秘籍:量化与蒸馏技术详解,助你降低90%部署成本

文章介绍了大模型压缩的两大主流技术:量化(降低参数精度减少存储空间)和蒸馏(训练小模型模仿大模型行为)。量化技术实施简单、压缩效果明显,而蒸馏能获得全新小模型、灵活性更高。这些技术能在保持模型性能的同时显著降低部署成本,让AI技术更加平民化,对开发者部署和设计AI应用具有重要意义。

文章图片
#人工智能
    共 730 条
  • 1
  • 2
  • 3
  • 73
  • 请选择