登录社区云,与社区用户共同成长
邀请您加入社区
摘要: 2015-2025年智能驾驶决策规划实现三级跃迁:从规则状态机(2015)、博弈优化(2019)到VLA端到端自进化(2025)。中国厂商(小鹏/华为/比亚迪)主导技术革新,规划时延从秒级降至<50ms,预测时域延至30秒+,成功率超99.9%。核心突破包括游戏论社交博弈(2021)、VLA语义意图(2023)及量子不确定性补偿(2025),推动智驾从“轨迹执行”升级为“社交预测”。
摘要: 2015-2025年,多模态大语言模型(MLLM)从单模态孤岛跃升至万亿级具身智能系统。2015-2018年以VQA手工对齐为主,参数规模百万级;2019-2022年CLIP革命推动对比学习与融合预训练,实现零样本分类;2023-2025年进入VLA端到端自进化时代,华为、阿里等中国厂商主导十万亿级模型研发,零样本泛化率超99%,赋能智驾、机器人等实时多模态交互。中国从技术跟随者发展为全球
摘要: 2015至2025年,Agent技术经历了从单一规则脚本到通用智能伙伴的跨越式发展。早期Agent(2015-2018)依赖固定脚本和简单规划,任务单一;2019-2022年强化学习和大模型驱动使其具备多任务能力;2023-2025年多模态VLA(视觉语言动作)Agent实现意图级自进化与量子鲁棒协作,渗透率突破70%。中国从跟随到领跑,小鹏、华为、阿里等推出领先Agent方案,推动人类与
摘要: 2015–2025年,MoE架构从理论复苏(8–16专家)演进为万亿级多模态VLA动态MoE(十万级专家),激活参数比例从10%降至0.1%,效率提升超1000倍。中国实现从跟随(华为盘古、阿里M6)到领跑(DeepSeek、小鹏VLA MoE),推动AI从稠密计算转向稀疏意图级专家协同。2025年MoE渗透率达80%,量子加速与自进化技术成为标配,全域具身智能实现实时决策,标志着AI文明
摘要: ZeRO(零冗余优化器)从2019年微软开源的内存优化技术,到2025年已发展为支持十万亿参数大模型训练的量子混合框架。十年间,其内存节省从70%提升至99.9%,训练效率增长超1000倍,渗透率达85%以上。中国从初期跟随(华为、DeepSeek)到主导量子ZeRO创新,推动AI从千亿瓶颈迈向实时普惠训练。关键节点包括2020年ZeRO-3支持千亿模型、2023年MoE融合、2025年量
摘要(150字): 2015-2025年,Triton从无到有,演进为OpenAI主导的Python级GPU内核语言,实现全自动编译优化,成为万亿模型训练/推理标配。中国从跟随者跃升为全球并跑/领跑者(华为昇腾、阿里/腾讯等深度定制),开发效率提升1000倍+,性能逼近手工CUDA。2015-2018年为手工CUDA时代;2019-2022年Triton开源,Python写内核革命;2023-20
摘要: 2015-2025年间,LSTM从序列建模的巅峰技术(机器翻译/语音识别主流)彻底退出历史舞台,被Transformer/VLA大模型取代。2015年LSTM主导长序列处理,2017年引入注意力机制,2019年Transformer崛起,2021年预训练模型革命彻底淘汰LSTM。2023年后,多模态大模型(如GPT-4V)实现毫秒级全域动态意图理解,LSTM仅作为思想融入现代架构。中国厂商
摘要: 2015-2025年,SAM(Segment Anything Model)从手工实例分割演进为零样本通用分割的里程碑式技术。早期(2015-2018)以Mask R-CNN为代表,依赖固定类别标注;中期(2019-2022)开放词汇分割兴起,引入文本提示;2023年Meta发布SAM实现零样本任意分割,中国厂商(阿里、华为等)快速跟进。2025年VLA多模态SAM实现自然语言直驱、毫秒级
摘要: 2015–2025年,自动编码器(Autoencoder)从浅层降维工具(如Denoising AE)演进为多模态自监督核心范式。2015年以手工设计为主(精度~80%),2017年VAE引入生成能力,2019年VAE-GAN提升生成质量。2021年自监督预训练(如SimCLR)推动表示学习,2023年多模态大模型(如MAE)实现掩码重建与意图理解。2025年进入VLA自进化阶段(华为盘古
年份核心范式跃迁代表技术/提示方式零样本泛化率/效率提升主要能力/应用中国贡献/里程碑2015提示工程不存在无(模型太小)- / -无全球无概念,中国无2017初步上下文提示初探In-context Learning初稿~60–70% / 手工简单few-shotOpenAI初探,中国跟进2019Few-shot提示爆发~75–80% / 手工试错少样本任务百度文心 + 华为盘古初代few-sho
LSTM 作为 RNN 的 “进化版”,通过遗忘门、输入门等结构,解决了长序列记忆的难题,在 NLP、时间序列等领域大显身手。但它也不是完美的,计算复杂度比 RNN 高,训练起来更费时间和算力,就像学霸虽然成绩好,但也得花更多时间学习不是😉如果你也对序列数据处理感兴趣,不妨动手试试LSTM吧!说不定你也能用它创造出一些有趣的应用呢!🎁: 下期预告:《GRU:我比LSTM少1个门,但得更快!》?
世界模型十年演进(2015–2025)摘要 2015年世界模型仍依赖手工规则与Kalman滤波,2025年已发展为多模态VLA大模型,具备量子级自进化能力。中国从跟随者跃升为全球领跑者,华为、小鹏等企业主导创新,模型参数从百万级跃升至万亿级,预测时域从秒级扩展至分钟级,Sim2Real一致性突破99.9%。2015–2018年为手工规则与视频预测萌芽期;2019–2022年Dreamer系列与万级
【代码】昇思25天学习打卡营第20天|RNN for sentiment analysis。
例如,对于一个电影评论“这部电影太棒了,我非常喜欢”,RNN 可以逐步处理每个单词,捕捉到“太棒了”“非常喜欢”等积极词汇的信息,并综合整个序列的上下文来判断其情感为积极。另一个例子是“这个产品真糟糕,完全不满意”,RNN 能够理解“糟糕”“不满意”等消极词汇以及它们在上下文中的含义,从而将其分类为消极情感。- 将 RNN 输出的表示传递给全连接层,再通过激活函数(如 Softmax)进行分类,得
设计预测函数,实现输入评价的情感分类。分词处理输入句子。查找词表获取索引ID。转换为Tensor,输入模型进行预测。输出预测结果。通过以上步骤,RNN模型实现了准确的情感分类,展示了自然语言处理中的应用潜力。
根据前文预测下一个单词一个文本序列的概率分布可以分解为每个词基于其上文的条件概率的乘积MindNLP/huggingface Transformers提供的文本生成方法Greedy search
情感分类是自然语言处理中的经典任务,是典型的分类问题。
情感分类是自然语言处理中的经典任务,是典型的分类问题。输入: This film is terrible正确标签: Negative预测标签: Negative输入: This film is great正确标签: Positive预测标签: Positive最后我们设计一个预测函数,实现开头描述的效果,输入一句评价,获得评价的情感分类。将输入句子进行分词;使用词表获取对应的index id序列;
序列标注指给定输入序列,给序列中每个Token进行标注标签的过程。序列标注问题通常用于从文本中进行信息抽取,包括分词(Word Segmentation)、词性标注(Position Tagging)、命名实体识别(Named Entity Recognition, NER)等。输入序列清华大学座落于首都北京输出标注BIIIOOOOOBI如上表所示,清华大学和北京是地名,需要将其识别,我们对每个输
摘要:本文介绍了基于RNN的情感分类模型实现过程。使用MindSpore框架,结合IMDB影评数据集和GloVe预训练词向量,构建了一个包含Embedding层、LSTM层和全连接层的神经网络。文章详细阐述了数据预处理、模型构建、训练评估等关键步骤,并展示了模型在测试集上的评估结果,准确预测了输入文本的情感极性(Positive/Negative)。实验结果表明,该模型能够有效完成情感分类任务,为
最后我们设计一个预测函数,实现开头描述的效果,输入一句评价,获得评价的情感分类。具体包含以下步骤:将输入句子进行分词;使用词表获取对应的index id序列;index id序列转为Tensor;送入模型获得预测结果;打印输出预测结果。最后我们预测开头的样例,可以看到模型可以很好地将评价语句的情感进行分类。
序列标注指给定输入序列,给序列中每个Token进行标注标签的过程。序列标注问题通常用于从文本中进行信息抽取,包括分词(Word Segmentation)、词性标注(Position Tagging)、命名实体识别(Named Entity Recognition, NER)等。
我们使用最后的一个时间步的隐状态作为输入句子的编码特征,送入下一层。为了方便数据集和预训练词向量的下载,首先设计数据下载模块,实现可视化下载流程,并保存至指定路径。针对本节情感分类问题的特性,即预测。即使用模型的预测结果和测试集的正确标签进行对比,求出预测的准确率。数据集进行了分词处理,但不满足构造训练数据的需要,因此要对其进行额外的预处理。最后我们设计一个预测函数,实现开头描述的效果,输入一句评
情感分类任务在LLM原理及实践的部分已经学习过基于LLM进行实现的方法,今天要学习的是传统基于深度学习神经网络进行进行情感分类的方法。本次所使用的数据集来自互联网电影资料库(Internet Movie Database,简称IMDb)的电影评论数据,目标是识别电影评论的情感类型:积极的或则消极的,用于训练的数据集标注了评论对应的情感类型。本次需要使用预训练词向量对自然语言单词进行编码,以获取文本
¶序列标注指给定输入序列,给序列中每个Token进行标注标签的过程。序列标注问题通常用于从文本中进行信息抽取,包括分词(Word Segmentation)、词性标注(Position Tagging)、命名实体识别(Named Entity Recognition, NER)等。输入序列清华大学座落于首都北京输出标注BIIIOOOOOBI如上表所示,清华大学和北京是地名,需要将其识别,我们对每个
最后我们设计一个预测函数,实现开头描述的效果,输入一句评价,获得评价的情感分类。将输入句子进行分词;使用词表获取对应的index id序列;index id序列转为Tensor;送入模型获得预测结果;打印输出预测结果。最后我们预测开头的样例,可以看到模型可以很好地将评价语句的情感进行分类。
递归神经网络(RNN)是一种用于处理序列数据的神经网络,它通过隐藏状态(hidden state)将前一个时间步的信息传递到下一个时间步,从而捕捉序列中的依赖关系。尽管RNN在理论上可以处理任意长度的序列,但在实践中往往会遇到梯度消失和梯度爆炸问题,特别是在处理长序列时。RNN(循环神经网络)循环神经网络(Recurrent Neural Network, RNN)是一类以序列(sequence)
预训练词向量是对输入单词的数值化表示,通过nn.Embedding层,采用查表的方式,输入单词对应词表中的index,获得对应的表达向量。这里我们设置训练轮数为5轮。同时维护一个用于保存最优模型的变量best_valid_loss,根据每一轮评估的loss值,取loss值最小的轮次,将模型进行保存。这里nn.LSTM隐藏了整个循环神经网络在序列时间步(Time step)上的循环,送入输入序列、初
LSTM+CRF序列标注-昇思25天打开
输入: This film is terrible正确标签: Negative预测标签: Negative输入: This film is great正确标签: Positive预测标签: Positive最后我们设计一个预测函数,实现开头描述的效果,输入一句评价,获得评价的情感分类。将输入句子进行分词;使用词表获取对应的index id序列;index id序列转为Tensor;送入模型获得预测
多任务学习十年演进(2015–2025) 2015年,多任务学习仍处于手工共享底层架构的浅层阶段,而到2025年已发展为万亿级多模态统一大模型时代,实现了端到端自适应多任务协同。中国从跟随MMoE技术跃升至全球领跑,华为、阿里、百度等企业主导创新,多任务性能提升从10–20%飙升至50%以上,实时性从离线优化至毫秒级。2015–2018年以硬参数共享为主,2019–2022年MMoE和Transf
推荐系统十年演进(2015–2025) 2015年推荐系统以协同过滤和矩阵分解为主,CTR约5–10%,延迟分钟级;2025年已发展为多模态VLA大模型主导,CTR超30%,延迟降至毫秒级,实现实时意图级推荐。中国厂商(阿里、字节、腾讯等)从跟随Netflix Prize到全球领跑,技术路线历经深度学习(2017)、Transformer(2021)到多模态自进化(2025),推动推荐从内容匹配跃
摘要: 2015-2025年间,图神经网络(GNN)从基于GCN/GAT的小规模节点分类(准确率~80%)发展为支持万亿级多模态动态图、量子鲁棒和自进化的通用智能系统(准确率>99%)。中国从早期跟随者成长为全球领跑者,华为、阿里、百度等企业推动技术跨越,实现从静态图处理到实时动态意图理解的跃迁。核心演进分为三阶段:2015-2018年聚焦图卷积与注意力机制;2019-2022年突破异构图与
rnn
——rnn
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net