登录社区云,与社区用户共同成长
邀请您加入社区
ResNet十年演进(2015–2025):从CNN王者到历史经典 2015年,ResNet凭借残差连接解决深度网络退化问题,成为ImageNet分类冠军(Top-1 76-78%),开启CNN黄金时代。2019年后,高效变体(如EfficientNet)推动移动端应用,但ViT/Swin Transformer的崛起(2021年起)逐渐取代ResNet。2025年,ResNet新项目份额不足1%
Diffusion模型十年演进摘要(2015–2025) 2015年Diffusion模型仅作为学术概念萌芽,2025年已发展为支持电影级8K视频、10分钟长时序生成的多模态AI引擎。中国从早期跟随(2017)到全球领跑(Kling/Vidu等),推动技术跨越:2019年DDPM框架成熟,2021年实现高分辨率图像生成,2023年进入文本到视频爆发期(Sora/Kling)。2025年核心突破包括
摘要: 2015-2025年,AutoML从Google初代实验发展为万亿级多模态大模型驱动的智能自进化系统,效率提升超10万倍。中国从跟随者跃升为全球领跑者,华为、阿里、百度等企业推动技术迭代:2015-2018年以手工NAS为主;2019-2022年多保真并行优化实现千倍效率突破;2023-2025年进入VLA自进化时代,量子加速+意图级自适应实现秒级调优。AutoML渗透率从<5%增至
摘要: 2015-2025年,模仿学习从依赖小样本行为克隆(BC)的学术研究,发展为多模态VLA大模型驱动的产业核心技术。中国从跟随DAgger/GAIL到领跑全球,宇树、银河通用等企业推动训练效率提升百万倍,零样本泛化率从70%跃升至99%以上。演进分为三阶段:2015-2018年以BC+DAgger为主;2019-2022年实现多任务万级并行模仿;2023-2025年进入VLA自进化时代,实现
摘要: 2015-2025年间,端到端算法从Seq2Seq语音识别演进为万亿级多模态VLA统一智能系统,实现感知-规划-决策-控制全链路闭环。中国从技术跟随者跃升为全球领跑者,华为、小鹏等企业推动端到端渗透率从<1%提升至>70%,延迟降至50ms以内,鲁棒性覆盖全场景99.99%。发展历经三阶段:2015-2018年语音/翻译萌芽期(RNN+Attention);2019-2022年
摘要: 2015年Word2Vec作为静态词向量代表主导NLP领域,准确率70-80%。2019年起,BERT等预训练模型实现动态句向量(准确率90%+),中国厂商百度ERNIE、华为盘古崛起。2023年后,多模态大模型(如CLIP、通义千问)实现视觉语言联合嵌入,准确率突破95%。至2025年,VLA自进化模型(DeepSeek-Embed等)融合量子计算,实现全域动态意图理解,中国在万亿参数训
碎碎念:万般皆是命,半点不由人。本文主要是为了明确大模型学习路线,从JD的要求出发先了解一些基础概念,由浅入深,结合相关项目训练。主要矛盾就是这个岗位我需要会什么,项目那么多哪一个最相关?明确后再出发。目标:掌握分词embedding,encoder、 encoder+decoder、decoder结构,注意力掌握Q/K/V 矩阵乘法,softmax操作和意义,彻底理解attention矩阵,线性
方案核心工具适合场景操作步骤入门级Word2Vec + 平均池化技术资源有限,追求快速落地1. 用 Word2Vec 训练小说摘要的词向量(把每个词转换成向量);2. 对单部小说的所有词向量取 “平均值”,得到该小说的「摘要向量」(如 100 维);3. 优点:简单易实现,算力要求低;缺点:忽略词的顺序(如 “男主救女主” 和 “女主救男主” 向量相近)。进阶级(推荐)BERT 等预训练模型(如中
本项目基于RAG技术开发了一个法律文书智能解读系统,旨在解决法律文书专业术语难懂、咨询成本高的问题。系统采用三级缓存架构(Redis、MySQL、RAG引擎)实现高效检索,通过BM25算法和混合检索策略提升匹配精度。核心技术包括: 使用BGE-M3模型进行文本向量化,支持稠密和稀疏向量检索 采用LangChain框架整合文档处理流程 部署BERT微调模型进行意图识别 实现四种检索策略(直接检索、H
残差连接就是给模型加了一条“信息捷径”,把原始输入直接加到输出上,既防止深层训练崩溃,又不让模型丢了基础信息。残差连接通过yxFxyxFx的逐元素加和,让梯度能直接反向传播(避免梯度消失),同时让模型学习特征增量,是Transformer实现深层堆叠的核心技术。
对输入向量(纯文本写法):Softmaxziezi∑j1nezji12nSoftmaxzi∑j1nezjezii12n纯文本兼容版:分子:对单个得分做指数运算(保证非负)分母:所有得分指数的总和(做归一化,让结果之和=1)
人工智能服务 AIService。
带您从0快速搭建一个基于Elastic Search的多路召回RAG,前端使用Gradio快速生成
在上篇文章中,我们介绍了Word2Vec以及它的作用,总的来说:Word2Vec是我们理解NLP的第一站Word2Vec将词变成了“向量”—— 终于可以用机器理解词语的相似度我们获得了例如“国王 - 男人 + 女人 ≈ 女王” 的类比能力我们可以将Word2Vec这种算法能力,应用到各种创新场景,例如基于Graph的推荐系统,后续如果小伙伴有需要,可以一起深入交流。但同时也指出了它的不足:一个词=
作用:给数据“校准规格”,解决“数据调皮”导致的训练慢、训练崩问题;核心逻辑:先把每批数据调成“标准分”,再用γ(缩放)和β(偏移)微调;可训练参数:只有γ和β,每个通道各1个,总数=2×通道数(c);关键规律:参数数量只和通道数(c)有关,和批次大小(b)、图片长宽(h,w)没关系。就像给每个颜色通道配了一个“调音师”,每个调音师只有两个旋钮(缩放+偏移),不管你给多少张图片、图片多大,调音师的
gensimLDA 主题建模:揭示文档集合中的隐含主题结构Word2Vec 词向量:学习词语之间的语义关系通过合理预处理、超参数调整和结果可视化,你能从原始文本中提取出有价值的洞察。🚀 提示:虽然现代 NLP 更多采用 BERT 等 Transformer 模型,但 LDA 和 Word2Vec 仍因其轻量、可解释性强、无需标注数据而在推荐系统、文本摘要、初筛分析中广泛应用。掌握gensim的使
如果我们选择“rests”作为输入词(即中心词),Skip-gram 的任务是预测“rests”周围的词,比如“he”,“in”,“peace”。在文本分类、情感分析等 NLP 任务中,我们可以将每个单词映射到 Word2Vec 词向量空间,然后通过对文本中所有词向量的平均或者加权平均,得到一个文本的向量表示。例如,在学习过程中,“cat”和“dog”这样的词,因为有相似的语义和上下文,模型会通过
本文详细介绍了 Transformers 框架中的嵌入机制,特别是词嵌入(Token Embeddings)的作用和实现方式。我们通过具体的代码示例,展示了如何使用 Qwen2.5-1.5B 大模型的嵌入矩阵来将文本序列转换为嵌入向量。此外,我们还介绍了经典的 Word2Vec 词嵌入技术,并通过gensim库演示了如何训练和使用 Word2Vec 模型。嵌入是自然语言处理中不可或缺的一环,它将离
Streamlit 是一个开源的 Python 库,专门用于快速构建和共享数据科学和机器学习应用。它允许开发者以极简的方式将 Python 脚本转换为交互式的 Web 应用,无需深入前端开发知识。Streamlit就是简单方便,在不需要非常复杂的前端页面情况下,该库就是理想选择,只需几行代码便将一个UI框架搭建起来.
本文系统性地介绍了自然语言处理领域的经典模型——Skip-Gram。从解决传统词表示方法的缺陷出发,详细阐述了Skip-Gram模型的工作原理、核心优势及实际应用价值。通过清晰的步骤分解,展示了如何从零开始构建和训练一个简化版Skip-Gram模型,并提供了完整的Python实现代码。文章不仅解释了模型的数学基础和训练过程,还给出了生产环境中的实用建议和扩展应用方向。无论是NLP初学者还是希望深入
作者国籍机构(2013 年时)核心贡献捷克Google提出了高效训练词嵌入的方法 CBOW 和 Skip-gram。Kai Chen中国Google核心架构开发者。美国GoogleGoogle 大神,支持模型的大规模并行实现。信息项详情论文题目发表年份2013 年出版刊物核心命题如何高效地将海量单词映射到低维、稠密的向量空间中,使向量的几何关系能代表语义关系?词向量本质上是一串固定长度的数字。向量
深度学习自注意力机制详细笔记
我们先回顾一下智能答疑机器人的问答流程。问答流程主要包括用户、智能答疑机器人、知识库、大语言模型这四个主体。:用户发起提问。:机器人返回回答。:从知识库中召回相关的topK文本。针对RAG应用,内容安全合规检查方案的设计将围绕这三个阶段展开。为此,我们可以设计一套通用的合规检查机制,支持不同内容类型的检查,且适用于问答过程中的任意阶段。针对输入的内容合规检查,可将其放在用户提问后的阶段;而针对输出
此外,JVM的即时编译(JIT)优化能自动提升热点代码的执行效率,为复杂计算任务(如神经网络训练)提供高性能保障。- 智能框架适配:Google的TensorFlow-Java、Eclipse基金会的Deeplearning4j等开源库,让Java开发者能无缝接入深度学习模型,实现图像识别、自然语言处理等AI任务。通过GraalVM的AOT编译技术,Java应用可编译为原生镜像,结合Optiona
核心技术突破在于自定义的Metadata拦截器,能够根据请求优先级自动选择通信协议,同时利用Netty的PooledByteBufAllocator管理内存分配,避免了频繁的堆外内存碎片化问题。通过Embedding层的设计模式,将TensorFlow Lite的推理模型封装为Java服务接口,某智能客服系统实现了实体识别准确率提升22%的同时,对话响应速度保持在350ms以内。这些实践表明,Ja
Word2Vec的使用,含示例——包括使用预训练Word2Vec模型和自训练Word2Vec模型
自然语言处理(Natural Language Processing,NLP)是计算机科学领域与人工智能领域中的一个重要方向。它研究如何处理和运用自然语言;自然语言认知则是指让计算机“懂”人类的语言。NLP建立于20世纪50年代,随着计算机技术的飞速发展,NLP技术在信息检索、文本挖掘、自动文摘、机器翻译、语音识别、情感分析等领域得到了广泛应用。
关键词: Word Vectors, SVD (Singular Value Decomposition), Skip-gram, Continuous Bag of Words (CBOW), Negative Sampling, Hierarchical softmax, Word2Vec.本节首先介绍NLP的一些一本概念和常见的NLP问题;然后讨论如何用向量(numeric vector..
深度学习word2vec笔记之算法篇声明:1)该博文是Google专家以及多位博主所无私奉献的论文资料整理的。具体引用的资料请看参考文献。具体的版本声明也参考原文献2)本文仅供学术交流,非商用。所以每一部分具体的参考资料并没有详细对应,更有些部分本来就是直接从其他博客复制过来的。如果某部分不小心侵犯了大家的利益,还望海涵,并联系老衲删除或修改,直到相关人士满意为止。3)
word2vec
——word2vec
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net