
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
在上篇文章中,我们介绍了Word2Vec以及它的作用,总的来说:Word2Vec是我们理解NLP的第一站Word2Vec将词变成了“向量”—— 终于可以用机器理解词语的相似度我们获得了例如“国王 - 男人 + 女人 ≈ 女王” 的类比能力我们可以将Word2Vec这种算法能力,应用到各种创新场景,例如基于Graph的推荐系统,后续如果小伙伴有需要,可以一起深入交流。但同时也指出了它的不足:一个词=

对transformers库不常用记录,方便回溯。知识点1. fast的含义比如BertTokenizerFast,use_fast, 示例如下:1AutoTokenizer.from_pretrained('hfl/chinese-electra-180g-small-discriminator', use_fast=True)它的含义是使用rust加速速度。...
过去几年,大模型(LLM)几乎成了AI的代名词,从ChatGPT 到 Qwen、Claude,再到火出圈的DeepSeek,每一个新模型的发布都伴随着参数量的飞涨,百亿、千亿、万亿模型层出不穷。但很多开发者会有一个直观感受:“模型越来越大了,参数越来越多了,但为什么用起来仍然感觉它?能对对联,能写诗,但是对于一个简单的“9.11和9.8哪个大”都搞错。能上知天文,下知地理,但是仍可能会前言不搭后语

在之前讲Word2Vec、Bert到ChatGPT,我们发现大模型虽然对文字理解表现不错,但是似乎无法理解图片。例如:“为什么 ChatGPT 看不懂截图?“为什么你上传的发票,Qwen3模型读不出金额?“Deepseek能写论文,但不会读一张图?为什么会这样?从根本来讲,大模型最初是为了“读文字”而设计的,而不是“看世界”。但现实世界远不止文本。发票、表格、网页、商品图片、甚至手写体文字,。如果

对transformers库不常用记录,方便回溯。知识点1. fast的含义比如BertTokenizerFast,use_fast, 示例如下:1AutoTokenizer.from_pretrained('hfl/chinese-electra-180g-small-discriminator', use_fast=True)它的含义是使用rust加速速度。...
关系抽取调研——学术界目录1. 任务1.1. 任务定义1.2. 数据集1.3. 评测标准1.4. SOTA2. 方法总结2.1. 基于模式挖掘的方法2.1.1. 基于模板匹配的方法2.1.2. 基于依存句法的方法2.2. 监督学习2.2.1. 机器学习2.2.1.1. 基于特征向量的方法2.2.1.2. 基于核函数的方法...
关系抽取调研——工业界目录1. 任务1.1. 任务定义1.2. 数据集1.3. 评测标准2. 方法总结2.1. 基于模板的方法2.1.1. 基于触发词/字符串2.1.2. 基于依存句法2.2. 监督学习2.2.1. 机器学习2.2.2. 深度学习 Pipeline vs Joint Model2.3. 半监督/无监督方法2....







