
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文将用通俗易懂的方式,结合最新技术趋势和真实案例,详细拆解RAG系统从搭建到落地的全流程。
训练基座大模型那都是大公司们的事情,普通人、普通公司肯定是玩不起的,但是作为一个技术人,你可以不去做真正的大模型训练,但是你还是有必要知道和了解一下一个大模型是如何训练出来的。
用好AI,就是用好Prompt,也就是提问的技巧

这份文档好就好在,它没有上来就给你堆一堆数学公式讲什么高维空间,而是直接通过代码和图解,把 RAG(检索增强生成)这个被吹上天的概念,还原成了最朴素的工程问题。

企业 RAG 不是一个纯技术问题,对行业的理解、对脏数据的处理能力、对工程细节的把控,都是绕不开的必修课。
AI知识库(检索增强生成,Retrieval-Augmented Generation,简称RAG)是一种让AI变得更靠谱的技术,通过给大模型"安装外部记忆库",使它能查阅最新和最准确的信息来回答问题,而不是靠"脑子里记的东西"瞎编。
大语言模型(LLM)是非常庞大的深度学习模型,它们在大量数据上进行预训练。其底层的Transformer是一组神经网络,由具有自注意力能力的编码器和解码器组成。

这本书以 “图解”为核心理念,通过超过300幅高质量插图,彻底颠覆你对技术书“晦涩难懂”的刻板印象。从底层原理到应用开发,再到模型训练与微调,它让你不仅能**“读懂”**,还能 “看懂” ,更要“用起来” 。

今天,我们就来聊聊大模型压缩的两大主流技术——量化(Quantization)和蒸馏(Distillation)。

这本书由浙江大学DAILY实验室毛玉仁、高云君教授等领衔撰写,是一本聚焦于大语言模型知识传授的专业书籍。在Github上星标已经超过11K!








