logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

从 Word2Vec 到 BERT:AI 不止是词向量,更是语言理解

在上篇文章中,我们介绍了Word2Vec以及它的作用,总的来说:Word2Vec是我们理解NLP的第一站Word2Vec将词变成了“向量”—— 终于可以用机器理解词语的相似度我们获得了例如“国王 - 男人 + 女人 ≈ 女王” 的类比能力我们可以将Word2Vec这种算法能力,应用到各种创新场景,例如基于Graph的推荐系统,后续如果小伙伴有需要,可以一起深入交流。但同时也指出了它的不足:一个词=

文章图片
#人工智能#word2vec#bert
transformers-tokenizer备忘

对transformers库不常用记录,方便回溯。知识点1. fast的含义比如BertTokenizerFast,use_fast, 示例如下:1AutoTokenizer.from_pretrained('hfl/chinese-electra-180g-small-discriminator', use_fast=True)它的含义是使用rust加速速度。...

9.11 > 9.8?错的不是模型,是你对它的期待

过去几年,大模型(LLM)几乎成了AI的代名词,从ChatGPT 到 Qwen、Claude,再到火出圈的DeepSeek,每一个新模型的发布都伴随着参数量的飞涨,百亿、千亿、万亿模型层出不穷。但很多开发者会有一个直观感受:“模型越来越大了,参数越来越多了,但为什么用起来仍然感觉它?能对对联,能写诗,但是对于一个简单的“9.11和9.8哪个大”都搞错。能上知天文,下知地理,但是仍可能会前言不搭后语

文章图片
#人工智能
多模态大模型MLLM:不仅能聊,还能看,还能听!

在之前讲Word2Vec、Bert到ChatGPT,我们发现大模型虽然对文字理解表现不错,但是似乎无法理解图片。例如:“为什么 ChatGPT 看不懂截图?“为什么你上传的发票,Qwen3模型读不出金额?“Deepseek能写论文,但不会读一张图?为什么会这样?从根本来讲,大模型最初是为了“读文字”而设计的,而不是“看世界”。但现实世界远不止文本。发票、表格、网页、商品图片、甚至手写体文字,。如果

文章图片
#语言模型#算法#人工智能
transformers-tokenizer备忘

对transformers库不常用记录,方便回溯。知识点1. fast的含义比如BertTokenizerFast,use_fast, 示例如下:1AutoTokenizer.from_pretrained('hfl/chinese-electra-180g-small-discriminator', use_fast=True)它的含义是使用rust加速速度。...

关系抽取-学术界

关系抽取调研——学术界目录1. 任务1.1. 任务定义1.2. 数据集1.3. 评测标准1.4. SOTA2. 方法总结2.1. 基于模式挖掘的方法2.1.1. 基于模板匹配的方法2.1.2. 基于依存句法的方法2.2. 监督学习2.2.1. 机器学习2.2.1.1. 基于特征向量的方法2.2.1.2. 基于核函数的方法...

#知识图谱#人工智能
关系抽取调研-工业界

关系抽取调研——工业界目录1. 任务1.1. 任务定义1.2. 数据集1.3. 评测标准2. 方法总结2.1. 基于模板的方法2.1.1. 基于触发词/字符串2.1.2. 基于依存句法2.2. 监督学习2.2.1. 机器学习2.2.2. 深度学习 Pipeline vs Joint Model2.3. 半监督/无监督方法2....

#知识图谱#人工智能
到底了