logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

FlagPerf支持千卡集群的AI芯片评测,形成多模态&混合专家大模型场景评测方案

秉持“开源开放”精神,智源研究院联合一批全国重点的人工智能芯片企业共建“AI开放生态实验室”,围绕AI芯片进行底层技术联合创新,验证各种AI芯片对超大规模模型训练任务的支持力度,推动AI芯片构建完整的上下游软件生态,为AI芯片的生态发展和创新打造开放合作的平台。截至目前,FlagPerf 已完成来自9家芯片厂商的15款芯片的综合评测。芯片厂商C:“Flagperf 时效性强,紧跟社区动态,添加了

文章图片
#人工智能
智源打造基于Triton的大模型算子库,助力AI芯片软硬件生态建设

2024年大模型进入了新的发展阶段,AI全领域开启了更为迅猛的量变积累。一方面,模型突破了模态的隔离,文本、语音、视觉等各种形式之间产生的丰富的结合,大大增加了模态的多样性;同时,模型参数量从百亿、千亿级膨胀到万亿级,训练数据量从TB级达到PB级,上下文令牌数量也从几千增长到百万级,计算规模空前庞大;此外,算法结构的创新也带来了MoE、模型量化、定制算子等更加复杂的计算需求。

文章图片
#人工智能
智源十大行业高质量数据集开放申请,经验证可显著提升模型行业能力!

Aquila-Med-Chat (RL)在C-Eval上以及单轮多轮对话能力的表现尤为突出(见图2-图5)。Aquila-Med是针对医疗领域的复杂性场景的解决方案,基于Aquila的大规模双语医疗语言模型,在持续预训练阶段,Aquila-Med使用了高质量行业数据集中的医疗数据,实验结果表明:持续预训练阶段,Aquila-Med在多个基准测试上表现良好,特别是在MMLU上的表现显著提升(见图1)

文章图片
#人工智能#AI
AI大模型“行业数据集-场景应用创新计划”启动征集

说明:仅限医疗、教育、文学、金融、旅游、法律、体育、汽车、新闻、农业10类行业,同一机构提报行业类型不超过2个,需要介绍自身在行业大模型的技术与应用情况、对行业数据集的具体需求以及拟基于智源研究院行业数据集开展的模型训练设想。智源研究院将在6月底面向社会开放“行业数据集-场景应用创新计划”第一期非开源、高质量的行业数据集及示范模型案例参考,覆盖医疗、教育、文学、金融、旅游、法律、体育、汽车、新闻、

文章图片
#人工智能
北京人工智能数据运营平台发布,并开源超大规模高质量数据集

为验证行业数据集应用效果,智源选取医疗行业数据集进行示范模型训练。IndustryCorpus 1.0的发布,大幅提升了全球开源行业数据集的数据量和丰富度,改善开源行业数据集匮乏的现状,显著增加公共领域高质量行业数据的可获取性,为企业、开发者、科研人员提供了具备行业特性、内容丰富、安全的训练资源,减少开发成本,提高开发效率,助力大模型快速向行业应用阶段发展。数据平台实现数据的汇聚管理、处理加工,并

文章图片
#人工智能
智源千万级指令微调数据集Infinity-Instruct持续迭代,Llama3.1仅微调即可接近GPT-4

指令微调是引导语言模型落地、构建高性能对话模型的关键一步。针对目前开源的指令数据集质量低、覆盖领域少、数据信息不透明等问题,智源研究院推出了千万级指令微调数据集Infinity Instruct。该数据集今年6月发布,近日完成了新一轮迭代,包括Infinity-Instruct-7M基础指令数据集和Infinity-Instruct-Gen对话指令数据集。Infinity-Instruct-7M包

文章图片
#数据库
智源研究院举办第一期数据与行业应用Workshop

北京市科学技术研究院构建的北科院政务大模型,可对各类信息进行快速分析、处理与反馈,应用于智能问答、文本撰写、文章速读、知识库管理、文档智能标签、数据分析等场景。其中,预训练数据处理使用了基于“规则+模型”的多重质量提升方案,指令数据处理则使用了基于“指令复杂性+回复质量+多轮相关性”的筛选方案,以确保数据质量。面向大模型的数据工程核心旨在提升大模型数据集管理与运营效率、提升数据集质量和数量、充分挖

文章图片
#人工智能#数据库
Aquila2-34B推出Int4量化版本,低资源实现最强开源模型性能

为了降低开发者使用大模型的门槛,智源Aquila团队在AquilaChat2 系列模型基础上整合了Int4量化技术和QLoRA微调推理技术,显著降低了34B级别大模型的训练和推理所需的资源,为用户在低资源环境中运行大参数模型提供了新的可能。此外,Aquila2-34B 系列模型已与较低配置的AI芯片进行适配,已成功在 24G 显存的国产芯片上进行推理,后续将积极推动模型与更多国产异构芯片的适配,期

文章图片
#开源
到底了