logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

文本匹配(语义相似度)综述

目录打卡的baseline模型打卡的任务场景和数据集一、相似度计算&复述识别(textual similarity¶phrase identification)二、问答匹配(answer selection)三、对话匹配(response selection)四、自然语言推理/文本蕴含识别(Natural Language Inference/Textual Ent...

#人工智能
LightGBM最强解析,从算法原理到代码实现~

一只小狐狸带你解锁NLP/ML/DL秘籍正文来源:Microstrong1 LightGBM简介GBDT (Gradient Boosting Decision Tree) 是机器学习中...

机器翻译做到头了?Meta开源NLLB翻译模型,支持200种语言互译

文 | Alex(凹非寺)源 | 量子位这个翻译模型,不仅支持200+语言之间任意两两互译,还是开源的。Meta AI在发布开源大型预训练模型OPT之后,再次发布最新成果NLLB。NLLB的全称为No Language Left Behind,如果套用某著名电影,可以翻译成“一个语言都不能少”。这其中,中文分为简体繁体和粤语三种,而除了中英法日语等常用语种外,还包括了许多...

#人工智能#机器学习#大数据 +2
BERT部署加速622%,YOLOv7部署加速590%,这款开源压缩神器火了!

导读众所周知,计算机视觉技术(CV)是企业人工智能应用比重最高的领域之一。为降低企业成本,工程师们一直在探索各类模型压缩技术,来产出“更准、更小、更快”的AI模型部署落地。而在自然语言处理领域(NLP)中,随着模型精度的不断提升,模型的规模也越来越大,例如以BERT、GPT为代表的预训练模型等,这成为企业NLP模型部署落地的拦路虎。本文为大家介绍一个低成本、高收益的AI模型自动压缩工具(ACT..

史上最可爱的关系抽取指南?从一条规则到十个开源项目

正文来自订阅号:AINLP正文作者:太子長琴(NLP算法工程师)小夕,我来给你出个题,看看你的反应如何?好呀好呀,你说~“梁启超有一个著名的儿子,叫梁思成;同时还有一个著名的学生,叫徐志...

2024年1月11日最热AI论文Top5:开源界Stable Diffusion杀手、Prompt-tuning、零和游戏博弈

这份技术报告介绍了PIXART-δ,这是一个将潜在一致性模型(LCM)和ControlNet集成到先进的PIXART-δ模型中的文本到图像合成框架。PIXART-δ以其通过极其高效的训练过程生成1024px分辨率高质量图像的能力而闻名。LCM在PIXART-δ中的集成显著加快了推理速度,使得在仅2-4步内就能生成高质量图像。值得注意的是,PIXART-δ实现了在0.5秒内生成1024x1024像素

#人工智能
AllenAI 开源了关于大模型的所有细节!数据、代码、参数、训练过程,完全复现

这些计划的发布将有助于研究目前尚不甚了解的模型方面,例如预训练数据与模型能力之间的关系、设计和超参数选择的影响,以及各种优化方法对模型训练的影响。OLMo模型的训练过程也不例外。需要注意的是,这些估算值应被视为下限,因为它们没有包括其他排放源,如硬件和数据中心基础设施的制造、运输和处置过程中的固有排放,以及使用、反弹效应或其他环境影响,如水消耗或采矿等。OLMo的发布不同于以往的努力,它不仅仅提供

#自然语言处理#人工智能#深度学习 +1
超越 GPT-4V 和 Gemini Pro!HyperGAI 发布最新多模态大模型 HPT,已开源

HPT的主要部件,如大语言模型和视觉编码器都可以使用开源的预训练模型,而HPT中连接视觉和语言模态的桥梁,称之为H-former,它将视觉数据转换为语言标记。为了使语言模型能够充分理解视觉信息,H-Former 采用双网络设计,学习视觉—语言对齐的本地特征和全局特征,使 HPT 能够理解细粒度细节和抽象的高层信息。如下图所示,H-former将图像转换成视觉嵌入,该嵌入具备与文本对齐的信息,可以直

文章图片
#人工智能
回顾2023,那些令 AI 圈大地震的瞬间!

,答案将不再是一条语焉不详的“比较布赖斯峡谷与拱门国家公园公园”的旅游笔记链接,而是直接告诉我们“虽然这两个公园都禁止宠物狗在未铺设好的小径上活动,但布莱斯峡谷有两条铺设好的小径,允许宠物狗进入。这一年,伴随着GPT-4震惊世人的同时,开源社区的力量也壮大了起来,LLaMa 系列模型开源可商用为此做出了很大的贡献。事实上,GPT-4发布以来,国内外众多科技巨头都竞相追逐,但是都只能不断接近,但无法

文章图片
#人工智能
Wombat:93%ChatGPT性能,无需RLHF就能对齐人类的语言模型

文 | zzy文章地址: https://arxiv.org/abs/2304.05302v1训练代码:https://github.com/GanjinZero/RRHF模型权重:https://huggingface.co/GanjinZero/wombat-7b-delta文章提出RRHF一种无须强化学习的对齐方法训练语言模型。该文章利用chatGPT或者GPT-4作为得分模型,开发了语言模

文章图片
#语言模型#人工智能#机器学习 +1
暂无文章信息