登录社区云,与社区用户共同成长
邀请您加入社区
在AI绘画的世界里,Midjourney就像一把强大的魔法杖,但很多人用起来感觉像是在“抽卡”——输入几个简单的词,然后祈祷出图效果。我刚上手时也这样,生成的图时好时坏,完全看运气。精准出图的关键,在于构建一个结构化的“咒语库”。今天,我就把自己踩坑总结出的这套进阶咒语秘籍分享给你,让你从“抽卡玩家”变成“精准导演”。构建个人Midjourney进阶咒语库,本质上是将模糊的审美感觉,翻译成AI能精
优点说明维度可控自定义 N 维(如300),远小于词库 V语义学习从语料自动学习词语相似性与类比关系效率高使用查表(Embedding)代替矩阵乘法上下文感知同时利用前后 C 个词的信息预测中间词迁移能力强训练好的词向量可迁移到各种 NLP 任务CBOW 模型:输入:上下文 C 个词的 One-Hot → 嵌入层(查表)处理:C 个向量求平均 → 隐藏层(ReLU)→ 输出层(Softmax)输出
【摘要】Normalization(归一化/标准化)旨在解决不同特征量纲差异导致的问题。当特征数值范围差异大时(如身高1.5-2.0米vs体重40-100公斤),模型会偏向数值大的特征、训练速度变慢且易出现梯度爆炸。核心方法包括:1)Min-Max归一化(缩放到[0,1]),简单但对异常值敏感;2)Z-Score标准化(均值0、方差1),抗异常值但无固定范围;3)BatchNorm(神经网络层间标
洞天石扉,訇然中开。
本文系统梳理了语言模型的演进历程:从2003年NNLM首次用神经网络替代统计模型,到2013年Word2Vec通过简化架构实现效率突破(CBOW聚合上下文预测中心词,Skip-gram中心词预测上下文),再到2018年BERT采用深层Transformer实现动态语境建模。模型发展呈现从静态词向量到动态上下文表示、从局部窗口到全局双向理解的趋势。不同模型在计算效率、语义捕捉、一词多义处理等方面各具
定义:把一个词映射到一个d 维的实数向量(d 远小于词汇表大小),这个向量是通过训练自动学习出来的。苹果 →香蕉 →(相近)汽车 →(较远)
本文记录了作者与AI导师一天的学习对话,系统梳理了语言模型的发展历程。从基础的N-gram模型及其缺陷讲起,到神经网络语言模型中的词嵌入和RNN/LSTM,最终深入解析Transformer架构的核心机制。重点阐述了自注意力原理、QKV向量、多头注意力等概念,并对比了Encoder-Decoder与Decoder-Only架构的区别。文章以对话形式呈现,循序渐进地展示了语言模型从统计方法到深度学习
CBOW(连续词袋模型):CBOW(Continuous Bag of Words,连续词袋模型)与Skip-Gram相反,CBOW模型通过给定的上下文单词来预测中心词。具体来说,对于文本中的每一个中心词,CBOW模型会将其周围一定窗口大小内的其他单词(即上下文单词)作为输入,并尝试预测该中心词。CBOW模型类似于一个高级的完型填空游戏,其中上下文中的词汇(已知选项)被用来“填空”预测出缺失的中心
本文提出Transformer模型,一种完全基于注意力机制的序列转录架构,摒弃了传统RNN和CNN结构。模型采用编码器-解码器框架,使用多头自注意力机制实现并行计算,解决了RNN时序依赖和CNN长距离依赖问题。关键技术包括:层归一化、残差连接、位置编码和三种正则化方法(子层dropout、嵌入dropout和标签平滑)。实验表明,Transformer在翻译任务上训练更快、效果更好。该工作首次验证
通过持续改进的静态分析和模式识别技术,Java字节码到源码的还原精度不断提升,但完全保真还原仍面临理论和技术挑战。- 工具实现:JD-GUI、FernFlower等工具通过解析字节码结构,重建类声明、控制流和表达式。- 异常处理:还原try-catch-finally块。- 语法糖解析:还原增强for循环、自动装箱等语法。- 类型推断:基于字节码操作数栈行为还原数据类型。- 结构分析:识别if-e
本文探讨了计算机如何理解语言"意义"的问题。首先分析了传统方法WordNet和独热编码的局限性,指出其无法有效处理语义关联和新词。随后重点介绍了分布式语义理论和Word2Vec模型,通过预测上下文词来学习词向量表示。文章详细解析了Skip-gram模型的架构设计、数学原理和优化过程,展示了词向量在语义空间中的聚类特性。最后指出了静态词向量的局限性,并简要提及BERT等动态词向量
two novel model architectures for computing continuous vector representations of words from very large data sets计算词的连续向量表示的两种新模型架构large improvements in accuracy at much lower computational cost算力需求降低,
Word2Vec是一种用于将单词表示为连续向量的技术。它是一种浅层、双层的神经网络模型,用于训练单词的分布式表示。Word2Vec模型将单词映射到一个低维向量空间中,使得具有相似含义的单词在向量空间中距离较近。这种表示方法有助于在自然语言处理任务中更好地捕捉和理解单词之间的语义关系。npy文件是NumPy库中用于保存数组数据的二进制文件格式。npz文件是NumPy用于存储数值数据的压缩格式。它实际
词向量(Word Embedding)是自然语言处理中的基础技术,将词语映射为低维实数向量以捕捉语义关系。经典模型包括Word2Vec(CBOW/Skip-gram架构)、GloVe(融合全局统计)和FastText(引入子词信息)。训练过程涉及预处理、超参数调优等步骤,评估分内在(词相似度/类比)和外在(下游任务表现)两类。静态词向量存在一词一义、上下文无关等局限,现逐步被动态上下文模型(如BE
电-气-热综合能源系统优化调度代码,旨在构建一个多能源网络协同优化的调度模型,实现电网、气网与热网的耦合调度,达成系统整体运行的经济性与稳定性目标。该系统以MATLAB为开发环境,整合MATPOWER工具包进行电力系统计算,采用CPLEX/Gurobi求解器处理混合整数线性规划(MILP)问题,适用于综合能源系统规划、运行调度等场景,可为能源系统运营商提供科学的调度决策支持。MATLAB代码:电-
本文探讨了Word2Vec模型在时尚行业模特特质描述中的应用。通过构建包含60条男模描述的小型语料库,训练了Skip-gram架构的词向量模型。实验结果显示,模型能有效捕捉"温柔"与"温和"的语义相似性(相似度0.82),并区分"温柔"与"高冷"(相似度0.16)的对立关系。该技术可用于模特智能检索、营销文案生成等场景
cst仿真设计 反射透射性线圆转换,线线转换 案例与录屏打开CST刚打开模板栏是不是总盯着默认的几个空模板发呆?今天咱们整点新手入门但能快速装逼朋友圈或者中期报告材料的活——反射+透射都能玩的偏振转换超表面(Metasurface),连扫频率扫入射角度的动图我连怎么调录屏参数都揉进去说。先不说太玄的理论基底,直接抓仿真流程+最常用的开源极化分解代码片段来玩。先定个今天的模拟目标吧:太赫兹0.1TH
在深度学习与自然语言处理(NLP)中,是一切任务的起点。传统方法依赖 One‑Hot 编码,极易造成维度灾难与语义缺失;而凭借低维、稠密、可表达语义的优势,成为现代 NLP 的标配基础技术。Google 在 2013 年提出的,是训练词向量最经典、最高效的算法,包含与两种核心模型。本篇博客将严格按照课堂 PPT 知识点,从讲起,深入 CBOW 模型结构与训练流程,最后使用,实现词向量训练、预测、提
本文详细拆解了工业级CBOW词向量模型的完整实现流程。基于PyTorch框架,从文本预处理、词汇表构建到模型训练与推理,严格遵循深度学习规范。文章重点介绍了CBOW模型的核心逻辑、代码实现细节(包括词嵌入层、词向量求和等关键操作)以及训练收敛验证。同时提供了词向量提取保存方法和常见问题解决方案,确保代码开箱即用。通过上下文预测中心词的任务验证,模型成功学习到有效的语义信息。所有实现均规避了新手常见
技术适用场景优缺点关键点面试/工作出现频率One-Hot玩具级演示维度灾难、无语义★★BoW简单分类、Baseline快、丢失词序★★★TF-IDF关键词提取、搜索、传统ML区分度高、仍丢失语义★★★★★(高频)N-gram语言模型、小数据场景捕捉词序,但稀疏★★★★序号化+Embedding所有现代NLP/LLM项目端到端、可迁移★★★★★(核心)生产中常用组合Baseline语义增强:Word
摘要: Word2Vec是2013年提出的里程碑式NLP模型,通过上下文学习词义并生成静态词向量(每个词对应固定向量)。其核心基于分布式假设,认为词义由周围词决定,提供CBOW(用上下文预测中心词)和Skip-gram(用中心词预测上下文)两种训练模式。模型展现词向量线性关系(如“King - Man + Woman ≈ Queen”),但无法处理多义词(静态向量缺陷)。尽管被BERT等动态模型超
摘要: 图神经网络(GNN)在2015-2025年间从学术概念发展为结构化智能的通用底座,经历四次范式跃迁:启蒙期(2015-2017)奠定理论基础,工程突破期(2018-2020)实现工业落地,爆发期(2021-2023)与大模型融合提升推理能力,普惠期(2024-2025)推动全行业低门槛应用。GNN核心技术国产化率从不足5%提升至75%,覆盖金融、医疗、工业等场景,未来将聚焦AGI融合、因果
当然不是,你得根据实际设备协议改数据解析部分。比如设备返回的数据可能是十六进制,那就要用来转。分层架构:解耦UI和业务逻辑,换硬件不用改Form异常处理try-catch和状态检查,程序不容易崩界面美化:用第三方库+合理布局,至少不像“计算器界面”了如果有同学想扩展,比如加个数据存到Excel的功能,直接写个类,继承接口,在MainForm里调用就行,扩展性拉满~上位机C#机框架源码,详细清晰可见
本文全面讲解向量表征(Embedding)核心知识,从基础定义、本质逻辑、技术演进,到文本向量生成、相似度计算方法层层拆解,覆盖 NLP、RAG、推荐系统等主流应用场景;搭配 Ollama 实战可视化代码,直观呈现文本向量空间分布规律,帮读者快速掌握 AI 语义检索底层技术,打通理论到实操的全流程认知。
摘要: 向量嵌入(Vector Embedding)是AI领域的基础技术,通过将文本、图像等内容转化为机器可计算的数字坐标,实现语义理解与知识检索。文章解析了向量嵌入的技术演进(从Word2Vec到多模态统一空间)、主流模型对比及RAG应用链路,并指出其产业化趋势:向量数据库市场预计2032年达110亿美元。核心价值在于从“字面匹配”升级为“意义匹配”,赋能电商搜索、推荐系统、企业知识库等场景。作
无刷直流电机(BLDC)的转速控制总让人感觉像在驯服一匹带电的野马——既要保证动态响应,又要避免失步炸MOS管。今天咱们抛开教科书式的理论堆砌,直接上手玩点有意思的:用人工神经网络(ANN)搞转速控制,顺便和传统PI控制掰掰手腕。实测效果惊艳:突加负载时转速跌落从200rpm降到80rpm,恢复时间缩短到120ms,而且没有PI那种反复振荡的毛病。实测发现空载到满载切换时,传统PI需要200ms才
基于V2G技术的电动汽车实时调度策略摘要:代码主要做的是基于V2G技术的电动汽车实时调度策略,请注意是实时调度策略而非日前调度策略,首先以降低充电成本和网损成本为目标,建立电动汽车调度模型。然后通过构建网损灵敏度指标分析电网节点性能,基于电网负荷制定分时电价,通过潮流计算和凸优化算法实时求解得到电动汽车充放电策略。最后以 IEEE 33 节点配电网为例验证了所提策略可以有效降低充电成本与网损成本。
定义拉索实常数的时候,要依据前面了解到的拉索规格来设置。通过特定的命令流来完成这个操作。假设这里定义的是拉索的实常数,0.01可能是某种与拉索相关的参数值,1500是另一个关键参数,具体含义根据实际模型确定分析:这段代码使用“R”命令来定义拉索的实常数,后面跟着具体的参数值。这些参数是根据拉索的实际特性和建模需求来设定的,确保拉索在模型中的力学行为符合实际情况。
摘要:Serde是Rust生态中实现零成本抽象的典范,通过编译期代码生成和trait系统设计,在保持高性能的同时提供类型安全的序列化功能。其核心采用Serialize/Serializer和Deserialize/Deserializer双trait设计,使数据结构与格式完全解耦。实践表明,Serde生成的代码性能与手写代码相当,甚至通过SIMD优化更优。文章深入解析了Serde的编译期魔法、内存
这里先实现skip-gram,本文也是对于该篇文章的翻译,并添加个人的理解与感悟。整体的流程如下:数据准备 —— 数据获取、清洗、使标准化、分词超参数 —— 学习率、迭代次数、窗口大小、词向量维度生成训练数据 —— 创建字典、为每个词生成one-hot编码、生成word2dic和dic2word的索引建立模型 —— 通过前向传播先对词做编码,计算错误率,通过反向传播和梯度下降不断降低l...
Word2vec,是一群用来产生词向量的相关模型。这些模型为浅而双层的神经网络,用来训练以重新建构语言学之词文本。网络以词表现,并且需猜测相邻位置的输入词,在word2vec中词袋模型假设下,词的顺序是不重要的。训练完成之后,word2vec模型可用来映射每个词到一个向量,可用来表示词对词之间的关系,该向量为神经网络之隐藏层。
加载word2vec词向量,每次加载都是几分钟,效率特别低。如何提高加载的速度,有三种解决方法。
深度强化学习算法:DDPG TD3 SAC实验环境:机器人MuJoCo本文针对在 MuJoCo 的 HalfCheetah-v2 环境中实现的四种深度强化学习算法进行全面分析,包括 A3C、DDPG、SAC 和 TD3。这些算法代表了现代深度强化学习在连续控制任务中的主要技术路线。
Muon是“高效探索”优化器,MuonClip是K2的“稳定版”K2用它实现了超大模型的高效、稳定训练,支持长上下文和复杂推理如果你想微调K2,官方推荐继续用Muon/MuonClip,能获得最佳效果。
从神经网络推测的角度理解CBOW模型
整个项目和使用说明地址:链接:https://pan.baidu.com/s/1my30wyqOk_WJD0jjM7u4TQ提取码:xxe0关于词向量的理论基础和基础模型都看我之前的文章。里面带有论文和其他博客链接。可以系统学习关于词向量的知识。之前已经使用numpy手动实现skip-gram,现在使用pytorch框架实现CBOW这是pytorch官网的C...
1. TrainModelTread的流程图总的来说是这样的:(1).所有训练集中的词被等分成n份(n为线程数),所有的词都会迭代5次(5次是默认值,这个可以在参数中设置),因此,每个线程会反复读5次自己管辖内的词。(2).每次按照句子来读入词,一次读入一句,一句读入后,逐个词进入神经网络训练。等这句话的所有词都训练完成后,再读入下一句。(3).当读到线程管辖文件
1.背景介绍自从深度学习技术诞生以来,它已经成为了人工智能领域的核心技术,并且在自然语言处理(NLP)领域取得了显著的成果。语言模型是NLP的一个重要分支,它旨在预测给定上下文的下一个词。在过去的几年里,我们已经看到了许多高效的语言模型,如Word2Vec、GloVe和BERT等。在本文中,我们将深入探讨这些模型的算法原理、数学模型和实现细节。2.核心概念与联系2.1 Word2Vec...
本文介绍了一个基于LSTM的中文情感分析项目,通过深度学习技术对社交媒体文本进行情感分类。项目使用jieba进行中文分词和停用词过滤,采用Word2Vec生成词向量作为模型输入。LSTM模型架构包含嵌入层、LSTM层和全连接层,使用交叉熵损失函数和Adam优化器进行训练。创新点包括优化的数据预处理流程、自定义词向量生成和多层LSTM设计。实验结果显示,该模型能有效识别微博文本的情感倾向(正面/中性
创建一个大小为[max_len,embed_dim]的零张量#创建一个形状为[maxlen,1]的位置索引张量pe[:,0::2]=torch.sin(position*div_term)#计算 PE(pOs,2i)pe[:,1::2]= torch.cos(position*div_term)#计算 PE(pos,2i+1)#将位置编码张量注册为模型的缓冲区,参数不参与梯度下降,保存model的
NLP语言模型NLP语言模型包括概率语言模型和神经网络语言模型统计语言模型:N-gram神经网络语言模型:word2vec,fasText,GloveN-gram基于概率的判别模型,输入为一句话输出为这句话的概率,即单词的联合概率特点:某个词的出现依赖于其他若干个词,获得的信息越多预测越准确。n-gram本身是指一个由n个单词组成的集合,各单词之间有先后顺序且不要求单词...
word2vec
——word2vec
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net