logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Agent智能体开发——langchain(1)第一章agent

从零开始,手把手教会你使用langchain框架搭建一个属于你的AI Agent。第一章——agent

文章图片
#python#人工智能
RNN模型及NLP应用(5/9)——多层RNN、双向RNN、预训练

提升RNN训练效果的三种方式——双向RNN、多层RNN、预训练

文章图片
#rnn#自然语言处理#人工智能
Agent智能体开发——langchain(2)第二章model

从零开始,手把手教会你使用Langchain框架大家一个属于你自己的AI agent。第二章model

文章图片
#python
Agent智能体开发——langchain(1)第一章agent

从零开始,手把手教会你使用langchain框架搭建一个属于你的AI Agent。第一章——agent

文章图片
#python#人工智能
Transformer-PyTorch实战项目——文本分类

手把手教会实现Transformers实战项目——文本分类实例

文章图片
#transformer#人工智能
RNN模型与NLP应用——(7/9)机器翻译与Seq2Seq模型

机器翻译——Sequence to Sequence模型介绍,详细讲解Seq2Seq模型底层逻辑,以及实现过程

文章图片
#自然语言处理#rnn#机器翻译
Agent智能体开发——langchain(2)第二章model

从零开始,手把手教会你使用Langchain框架大家一个属于你自己的AI agent。第二章model

文章图片
#python
Agent智能体开发——langchain(1)第一章agent

从零开始,手把手教会你使用langchain框架搭建一个属于你的AI Agent。第一章——agent

文章图片
#python#人工智能
为什么现在的LLM都是Decoder-Only架构?

大语言模型(LLM)普遍采用Decoder-Only架构的原因在于其理论优势。研究表明,双向注意力机制存在低秩问题,可能削弱模型表达能力,而Decoder-Only的单向注意力能保持满秩矩阵,具有更强的表达能力。实验显示,在同等参数和计算成本下,Decoder-Only架构表现更优,而Encoder-Decoder架构的优势仅源于参数翻倍。因此,Decoder-Only成为当前LLM的主流选择。

文章图片
#人工智能#架构
面向大语言模型的通用提示压缩技术——500xCompressor

本文提出了500xCompressor方法,能够将大量自然语言上下文压缩为最少1个特殊标记。该方案引入约0.25%的额外参数,即可实现6x-480x的压缩比。适用于任意文本压缩,能回答各类问题,且无需微调即可被原有LLM直接使用。

文章图片
#语言模型#人工智能#自然语言处理
    共 16 条
  • 1
  • 2
  • 请选择