logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

论文精读--《Training LMs to follow instructions with human feedback》--InstructGPT:大模型SFT+RLFH(PPO)详解,含代码

原文介绍了一种通过人类反馈微调(RLHF)来对齐大型语言模型与用户意图的方法。先通过监督学习微调模型(SFT),再训练奖励模型(RM)预测人类偏好,最后用强化学习(PPO)优化模型。实验表明,1.3B参数的InstructGPT模型输出比175B的GPT-3更受人类偏好,且在真实性、毒性方面有所改善。该方法能以较低成本显著提升模型的有用性和安全性,但仍存在过度服从指令、编造事实等问题。研究证明人类

文章图片
#人工智能#论文阅读
自然语言处理nlp--1.绪论(概念辨析、研究内容、主要困难、研究现状、研究方法、中/英文汉字/单词极限熵-信息量的比较)

自然语言处理的研究内容涵盖了从基础的语言理解到实际应用的多个方面,如机器翻译、信息检索、自动文摘等。其基本问题包括形态学、句法、语义、语用学和语音学等问题,主要困难在于歧义、未知语言现象、数据不充分性和语言知识表达的复杂性等。研究方法则主要分为理性主义方法和经验主义方法,近年来逐渐趋向于两者的融合。同时,给出了不同规模语料和不同语种字符的熵的比较和计算--单个汉字所携带的信息量平均为3.25个英文

文章图片
#自然语言处理#人工智能
自然语言处理nlp--8.文本摘要

文本摘要是从原文提取核心信息并生成简洁概括的技术,分为抽取式和生成式两类。抽取式方法(如TextRank)直接选取关键句子,计算高效但灵活性不足;生成式方法(如Seq2Seq)通过深度学习重新组织语言,表达自然但需要大量数据。评估主要采用ROUGE等指标计算内容重合度。当前趋势是结合两种方法优势,在保证准确性的同时提升可读性。随着大模型发展,生成式摘要质量显著提高,但平衡信息密度与流畅性仍是挑战。

文章图片
#自然语言处理#人工智能
《自然语言处理》课程设计--电影知识图谱问答系统

本文介绍了一个基于NLP技术的电影信息问答系统,该系统集成了8个功能模块和12项NLP技术。系统采用三层架构设计,支持文本和语音输入,能够识别用户意图、提取关键信息并进行纠错。核心功能包括:输入文本处理(意图识别、人名/电影名提取、拼写纠错)、语音识别、多轮对话管理、情感分析、相似推荐、摘要生成、数据管理和智能问答。系统通过CSV文件存储电影知识图谱数据,并提供用户问答和管理员数据管理双界面。该系

文章图片
#语音识别
多模态大模型串讲--BLIP2、LLaVA、Qwen-VL,tokenizer是什么及其作用

本文系统梳理了多模态大模型(MLLM)的核心技术架构与发展趋势。首先详细解析了Tokenizer的工作原理,包括文本和图像的分词方法(如BPE、ViT、VQ-VAE),并比较了不同模态的统一tokenization实现。随后重点分析了BLIP、BLIP-2、LLaVA等代表性视觉语言模型的技术特点:BLIP通过多模态混合架构统一理解与生成任务;BLIP-2创新性地采用轻量级Q-Former桥接冻结

文章图片
#人工智能#论文阅读
代表网络串讲(MLP BNN VGG ResNet SENet UNet 多模态CLIP Vilt YOLO RNN VAE GAN 扩散模型 LSTM GRU Transforme注意力 ViT)

本文系统梳理了深度学习领域的重要模型发展历程,从基础的多层感知机(MLP)到前沿的大规模预训练模型。首先介绍了MLP的基本原理和训练过程,包括防止过拟合的方法;随后重点分析了适合图像分类的经典网络(BNN、AlexNet、VGG16、GoogLeNet、ResNet、SENet)及其创新点;然后探讨了目标检测网络(R-CNN、YOLO、SSD)和图像生成网络(GAN、VAE、扩散模型)的算法特点;

文章图片
#深度学习#神经网络
自然语言处理nlp--2.词汇分析(中英文单词形态分析,汉字自动分词原则、算法,未登录词识别,词性标注方法,词汇分析性能评价,含python.jieba库分词实验代码)

自然语言处理中的词法分析与词性标注是NLP的基础任务,其中词法分析包括英语的形态还原(处理规则/不规则变化、特殊形式和合成词)和中文分词(解决歧义切分和未登录词识别),主要采用最大匹配法、最短路径法和统计语言模型等方法;词性标注则针对词性兼类问题,结合规则(如词缀和上下文规则)、统计模型(HMM、ME)和深度学习方法(BiLSTM-CRF、BERT),并依赖标准标注集(如北大和Penn Treeb

文章图片
#自然语言处理#人工智能
论文精读--《Chain-of-Thought Prompting Elicits Reasoning in LLMs》--CoT“开山鼻祖”,含CoT微调实验过程

原论文探索了思维链(Chain-of-Thought, CoT)提示方法如何显著提升大语言模型在复杂推理任务中的表现。通过提供包含中间推理步骤的示例,该方法能有效激发大型语言模型的推理能力。实验表明,CoT提示在算术、常识和符号推理任务上均能带来性能提升,具有任务普适性,尤其对大型模型(如540B参数的PaLM)效果显著。研究发现CoT推理能力是模型规模达到约100B参数时涌现的特性,且对提示示例

文章图片
#人工智能#论文阅读
论文串读--OpenAI-GPT系列1.2.3.4--大语言模型标准架构和预训练流程

本文系统梳理了GPT系列模型的技术演进路线,从GPT-1到GPT-4的核心技术始终基于Decoder-only Transformer架构。GPT-1首创无监督预训练+微调范式,通过任务特定输入表示实现迁移学习;GPT-2转向纯预训练,探索zero-shot能力;GPT-3突破性地提出few-shot上下文学习,利用1750亿参数实现元学习;GPT-4则实现多模态突破,通过RLHF提升对齐能力。

文章图片
#人工智能
自然语言处理nlp--9.情感分析(一般框架、公开数据集,含LSTM/SnowNLP代码示例)

情感分析是通过计算技术对带有情感色彩的主观性文本进行分析和推理的过程,旨在识别用户的态度和观点。其核心任务包括情感信息抽取和情感分类。该领域发展得益于公开评测如TREC、NTCIR和丰富的数据如Cornell、MPQA和情感词典如GI、HowNet。技术上,情感分析方法从早期的基于规则和词典的方法发展到如今的机器学习如LSTM、SVM、预训练语言模型,其中SnowNLP等库提供了开箱即用的解决方案

文章图片
#自然语言处理#人工智能#lstm
    共 53 条
  • 1
  • 2
  • 3
  • 6
  • 请选择