logo
publist
写文章

简介

ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!

擅长的技术栈

可提供的服务

开源模型社区

10B击败200B!阶跃星辰10B视觉语言SOTA模型开源

性能超越 20 倍大模型,阶跃星辰多模态“小核弹” Step3-VL-10B 开源!   仅用 10B 参数量,Step3-VL-10B 在视觉感知、逻辑推理、数学竞赛以及通用对话等一系列基准测试中均达到同规模 SOTA 水平,并且解决了参数量小和智能水平高难以兼优的行业难题。 团队在多项关键评测中观察到,Step3-VL-10B 媲美甚至超越规模大 10-20 倍开源模型(如 GLM-

文章图片
小而强,GLM-4.7-Flash开源

今天,GLM-4.7-Flash正式发布并开源。   GLM-4.7-Flash是一个混合思考模型,总参数量为30B,激活参数量为3B,作为同级别SOTA模型,为轻量化部署提供了一个兼顾性能与效率的新选择。   即日起,GLM-4.7-Flash将替代GLM-4.5-Flash,在智谱开放平台http://BigModel.cn上线,并供免费调用。   模型开源: h

文章图片
从对话到Agent:大模型工具调用能力的量化评测

在大模型从单纯的“对话者”向“自主代理(Agent)”进化的过程中,工具调用(Function Calling / Tool Use) 能力是核心中的核心。   然而,在实际开发中,开发者们经常面临这样的痛点:模型宣称“支持工具调用”,但在真实业务场景中表现却不尽如人意——要么在用户闲聊时突然乱调 API,要么生成的 JSON 参数缺胳膊少腿,导致后端服务频频报错。   那么如

文章图片
国内首个全国产化千亿参数细粒度 MoE:开源!

TeleChat3-105B-A4.7-Thinking,国内首个全国产化训练的千亿参数细粒度MoE语义大模型,开源! 代码:https://github.com/Tele-AI/TeleChat3 模型:https://www.modelscope.cn/models/TeleAI/TeleChat3-105B-A4.7B-Thinking 问答、写作、数学、代码、Agent......多维度比

文章图片
FLUX.2-Klein 4B/9B开源:亚秒级统一图像生成与编辑

Black Forest Labs开源了FLUX.2 [klein]模型家族,这是目前最快的图像生成模型系列。该系列在单一紧凑架构中统一了生成和编辑能力,在现代硬件上实现端到端推理低至0.5秒以内,同时在消费级GPU上仅需13GB显存即可运行。   开源地址 GitHub:https://github.com/black-forest-labs/flux2 ModelScope: htt

文章图片
美团 LongCat-Flash-Thinking-2601 发布,工具调用能力登顶开源 SOTA!

近日,美团 LongCat 团队正式对外发布并开源 LongCat-Flash-Thinking-2601。作为已发布的 LongCat-Flash-Thinking 模型的升级版,LongCat-Flash-Thinking-2601在Agentic Search(智能体搜索)、Agentic Tool Use(智能体工具调用)、TIR(工具交互推理)等核心评测基准上,均达到开源模型 SOTA

文章图片
阶跃星辰原生语音推理模型登顶全球权威语音模型榜!开源!

阶跃星辰开源模型Step-Audio-R1.1,拿下全球第一! 大模型评测榜单 Artificial Analysis Speech Reasoning 更新,阶跃星辰原生语音推理模型 Step-Audio-R1.1 登顶榜首。 该榜单是目前业界评估“原生语音模型”(Native Audio Models)最权威的第三方基准之一。核心考量模型直接处理音频并进行复杂逻辑推理的能力,主要考察维度包括准

文章图片
MiniMax 开源新评测集:定义Coding Agent 的生产级标准

在 Coding Agent 的实际应用中,我们观察到一个反复出现,却常被忽略的的现象:用户对 Agent 的不满,往往不是因为它“做不到”,而是因为它“做得不好”。 通过整理用户体感反馈,我们发现最高频的抱怨集中在:Agent 不遵循明确给出的指令。比如用户在系统提示中明确要求“不要使用 emoji”,Agent 却在代码注释里加上笑脸;用户要求“先备份再修改”,Agent 直接 [rm-rf

文章图片
GLM-Image开源:原创架构、国产芯片训练、擅长汉字生成

今天,智谱联合华为开源新一代图像生成模型GLM-Image,模型基于昇腾Atlas 800T A2设备和昇思MindSpore AI框架完成从数据到训练的全流程,是首个在国产芯片上完成全程训练的SOTA多模态模型。 GLM-Image采用自主创新的「自回归+扩散解码器」混合架构,实现了图像生成与语言模型的联合,是智谱面向以Nano Banana Pro为代表的新一代「认知型生成」技术范式的一次重要

文章图片
AgentCPM-Explore开源,4B 参数突破端侧智能体模型性能壁垒

当全行业还在争论 30B 能否挑战万亿参数时,OpenBMB给出了一个更激进的答案: 4B。没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分

文章图片
    共 863 条
  • 1
  • 2
  • 3
  • 87
  • 请选择