logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

nn.Embedding层的核心作用就是给输入的二维整数矩阵(batch_size × seq_len)增加一个新的维度(input_dim)

层的核心作用就是给输入的二维整数矩阵(batch_size × seq_len)增加一个新的维度(input_dim),最终得到三维张量(batch_size × seq_len × input_dim)。所以从维度变化的角度看,确实是在原有二维基础上 "增加了一个 input_dim 维度",而 len (vocab) 的作用更像是一个 "合法性检查"(确保输入的索引不会超出词汇表范围)。(必须

#矩阵#batch
使用 LangChain 封装 ERNIE API 与直接调用千帆平台 API 相比

简单来说,直接调用适合简单场景,而 LangChain 封装适合需要构建复杂 AI 应用的场景,它提供了标准化的接口和丰富的工具集,让开发者能够更高效地构建功能强大的 AI 应用。

#人工智能
ReadAgent

ReadAgent 是一套“长文本高效问答方案”分段(分页):把长文本拆小,降低处理压力;概括(gist):给每个分段做 “笔记”,建立记忆库;检索(lookup):用问题匹配 “笔记”,精准定位信息,让智能体像 “会查资料的助手” ,高效回答长文本相关问题~

#人工智能
LangChain

LangChain 曾在 AI 开发领域受到一定关注,但随着时间推移,确实面临一些问题,导致其热度有所下降,大公司使用意愿不高,具体原因如下:

#人工智能
少样本学习(Few - Shot Learning)

影响模型对任务的理解和执行效果,示例越少(zero - shot → one - shot → few - shot 示例逐步变多 ),模型 “猜着干” 的成分越大、效果越差;示例越充分(few - shot 给了少量但够用的参考 ),模型越容易摸准任务套路,效果越好。GPT - 3 这类大模型实验,也验证了 “给模型多些参考,任务表现更靠谱” 的规律。简单说,就是给模型 “任务示例” 的。的情况

#学习
num_layers LSTM 2 层 和bert默认的12层是一个含义? 那LSTM 能给12层么

LSTM 不适合太深(12 层会有严重问题),而 Transformer 架构(如 BERT)通过自注意力和残差连接支持更深的网络。现代 NLP 任务中,如果你坚持使用纯 LSTM 模型,建议层数控制在。和 BERT 的层数虽然都表示网络深度,但。

#lstm#bert#人工智能
电商平台智能推荐等领域 大预言模型或者 预训练模型的场景

在电商平台的智能推荐领域,预训练模型和大语言模型(LLM)的应用已成为提升个性化推荐效果的重要技术手段。

#人工智能#深度学习
NER(Named Entity Recognition,命名实体识别)

NER(Named Entity Recognition,命名实体识别)是自然语言处理(NLP)中的一项基础任务,旨在从文本中识别并分类具有特定意义的实体,例如人名、地名、组织机构名、时间、日期、金额等。这些实体是文本中承载关键信息的核心元素,NER 的目标是将它们从非结构化文本中提取出来,并赋予预定义的类别标签。

#人工智能
多模态..

大白话:让 AI 像人一样,同时理解「文字 + 语音 + 图像 + 视频」等多种信息。单模态 AI:多模态 AI:同时分析照片、语音、聊天记录,甚至视频直播:python运行五、多模态的现实应用领域应用场景多模态优势自动驾驶融合摄像头(图像)+ 雷达(点云)+ 语音指令全方位感知环境,减少误判医疗诊断结合 X 光图像 + 病历文本 + 医生语音综合分析病情,提高诊断准确率

#人工智能#语音识别
DeepSeek 中的强化学习机制

这个框架展示了 DeepSeek 如何通过强化学习对齐人类偏好,实际实现中还会包含更复杂的超参数调优、多阶段训练和模型融合技术。

#深度学习
    共 48 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 请选择