
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
基于 LLM,Kimi-Audio 更能识别情感的语音模型;Orpheus-TTS 零样本克隆语音,实现自定义语音对话

当状态变为「运行中」后,点击「API 地址」边上的跳转箭头,即可跳转至「Paints-Undo 一张图生成绘画全过程 Demo」的页面。近年来,AI 绘画发展迅猛,衍生出了超多有意思的玩法——文生图、图像修复/增强、风格变换/迁移等等,一句 prompt,一张参考图像,只需数秒即可获得生动且颇具艺术性的图片。从技术层面来看,AI 绘画是从文字语言出发的,前期训练过程中,模型学会了图像与文本之间的「

MedChatZH 数据来源于超过 1k 本中医典籍与医家笔记,以及从互联网与多家中国医院汇集的超过 700 万条中文医疗指令并结合 BELLE-3.5M 通用指令,经过筛选清理得到医药类指令 763,629 条、通用指令 1,305,194 条,共同组成用于对话微调的 med-mix-2M 数据集,与中医典籍语料配合,分别服务于继续预训练与指令微调两个阶段。MiniCPM-V 4.5 端侧部署友

MedChatZH 数据来源于超过 1k 本中医典籍与医家笔记,以及从互联网与多家中国医院汇集的超过 700 万条中文医疗指令并结合 BELLE-3.5M 通用指令,经过筛选清理得到医药类指令 763,629 条、通用指令 1,305,194 条,共同组成用于对话微调的 med-mix-2M 数据集,与中医典籍语料配合,分别服务于继续预训练与指令微调两个阶段。MiniCPM-V 4.5 端侧部署友

SUPIR 是一款非常强大的开源AI图像放大工具,它可以将低分辨率的图像放大到高分辨率,同时保持图像的细节和真实感。该数据集是判别文本中的问题对是否为重复问题的数据集,主要用于文本分类研究。FuseAI 提出了一个扩展的 FuseLLM 框架,将多个结构和尺度不同的聊天 LLM 的集体知识和个人优势融合为一个更强大的聊天 LLM,即 FuseChat。该数据集是基于文本的问答数据集,其中包括从维基

DeepSeek-R1-0528-Qwen3-8B 参数量为 80 亿,通过将 DeepSeek-R1-0528 的复杂推理能力蒸馏到较小的 Qwen3-8B 基座模型上,融合了 Qwen3 的多语言能力和 DeepSeek-R1 的推理优化,性能媲美 GPT-4,支持单卡高效部署,是学术与企业应用的理想选择。Nanonets-OCR-s 能识别文档中的多种元素,比如数学公式、图片、签名、水印、复

绑定到数据目录,可以理解为是一种数据的快捷方式,不需要任何的数据拷贝,在绑定数据之后就可以直接访问,无需额外拷贝时间。绑定到工作目录,是将指定的数据拷贝到工作目录里边,数据拷贝的速度和数据本身的规模有关且拷贝之后会占用额外的储存空间。可以看到我们默认的工作目录,也是 /openbayes/home 目录,输入命令「ls」就可以看到我们刚提到的工作目录中拷贝的数据。容器创建成功后,点击「打开工作空间

问题涵盖了历史、体育、科学、动物、健康等多个主题,并且每个问题都标有推理类型,如数值、表格、多重约束、时间性和后处理。该模型为 Llama 3.2-Vision 的 11B 参数大小的指令微调模型,针对视觉识别、图像推理、字幕和回答有关图像的一般问题进行了优化,支持英语、德语、法语等 8 种语言。该数据集包含了约 255 亿个 tokens 的医疗预料数据,涵盖了 6 种主要语言:英语、中文、日语

「使用 LlamaEdge 运行 Yi-34B-Chat 的量化模型」已上线至 OpenBayes 公共资源
