
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
背景题目:Rigid Formats Controlled Text Generation机构:Tencent AI Lab作者:Piji Li、Haisong Zhang、Xiaojiang Liu、Shuming Shi论文地址:https://arxiv.org/abs/2004.08022收录会议:ACL 2020论文代码:https://github.com/lipiji/SongNet
2024年6月27日,Google DeepMind发布了Gemma 2,这是Gemma系列轻量级开放语言模型的最新成员。Gemma 2在架构和训练方法上都有重大创新,在多项基准测试中取得了显著进步,甚至可以与参数规模大2-3倍的模型相媲美。本文将对Gemma 2技术报告的主要内容进行解读,包括模型架构、预训练和后训练方法、性能评估等方面。

背景本文主要介绍如何基于Docker的TensorFlow Serving快速部署训练好的模型,以对外提供服务。部署在线服务(Serving)官方推荐使用 SavedModel 格式,而部署到手机等移动端的模型一般使用 FrozenGraphDef 格式。本文训练一个神经网络模型来分类衣服的图像,衣服类别有比如运动鞋和衬衫等,并用 TensorFlow Serving 将其部署到线上。模型训...
浦语·灵笔模型是基于书生·浦语大语言模型研发的视觉-语言大模型图文交错创作:浦语·灵笔可以为用户打造图文并貌的文章,具体是提供文章生成和配图选择的功能。理解用户指令,创作符合要求的文章。智能分析文章,自动规划插图的理想位置,确定图像内容需求。基于以文搜图服务,从图库中检索出对应图片。图文理解: 浦语·灵笔设计了高效的训练策略,为模型注入海量的多模态概念和知识数据,赋予其强大的图文理解和对话能力。从

部署大型语言模型(LLM)时究竟需要多少GPU显存?本文将进行一次简单测算。
LatticeLSTM 出自于 ACL2018中的Chinese NER Using Lattice LSTM。LSTM-CRF模型在英文命名实体识别任务中具有显著效果,在中文NER任务中,基于字符的NER模型也明显优于基于词。
小伙伴们好,我是微信公众号《小窗幽记机器学习》的小编:卖海参的小女孩。OpenAI 发布的o1 是一个系列模型。除了o1-preview,官方还一并发布了一个 mini 版:OpenAI o1-mini。o1-mini是面向开发者,兼顾成本和效益。o1-mini 在 STEM 领域表现出色,尤其是在方面,其性能几乎可以与 OpenAI o1 在 AIME 和 Codeforces 等评估基准上相媲

其实小编之前有介绍过关于如何用TensorRT提升模型推理速度,感兴趣的小伙伴可以回顾下:TensorRT-LLM 是一个开源库,用于定义、优化和执行大型语言模型 (LLM) 在生产环境的推理。它在开源 Python API 中保留了 FasterTransformer 的核心功能,并与 TensorRT 的深度学习编译器配合使用,以快速支持新模型和定制模型。

VITA是腾讯优图实验室在交互式全模态大语言模型方面的一次新探索。近年来,大语言模型(LLM)和多模态大语言模型(MLLM)的快速发展给人工智能领域带来了巨大变革。特别是GPT-4等模型展现出的强大多模态能力和自然交互体验,为MLLM的实际应用奠定了基础。然而,开源社区在这一领域还存在明显的差距。为了推动开源MLLM的发展,来自腾讯优图实验室等机构的研究人员提出了VITA模型,这是首个开源的能够同
