
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
MOSS-TTSD 基于 Qwen3-1.7B-base 模型进行继续训练,采用离散化的语音序列建模方法,在约 100 万小时单说话人语音数据和 40 万小时对话语音数据上进行训练,因此它能够一次性生成长达数十分钟的连贯语音,更是为 AI 播客、有声书和虚拟角色配音打开了全新的大门。进入 Demo 界面后,首先选择界面语言,然后输入要合成的文本,输入模式选择「Single」则需上传包含一个角色的音

FLUX.1 Kontext 的图像编辑是广泛意义上的图像编辑,不仅支持图像局部编辑(对图像中的特定元素进行针对性修改,而不影响其余部分),还可以实现角色一致性(保留图像中的独特元素如参考角色或物体,使其在多个场景和环境中保持一致)。容器状态显示为「运行中」后,点击「 API 地址」,即可进入模型界面。点击「继续执行」,等待分配资源。首先点击「公共教程」,在公共教程中找到「FLUX.1-Konte

选择「NVIDIA GeForce RTX 4090」以及「vLLM」镜像,OpenBayes 平台上线了新的计费方式,大家可以按照需求选择「按量付费」或「包日/周/月」,点击「继续执行」。如果我们对模型进行微调,那么系统就不那么重要了,因为无论我们使用哪个系统提示,模型都会从目标中学习该做什么。该教程为使用 vLLM 加载 Qwen2.5-3B-Instruct-AWQ 模型进行少样本学习,包括

HunyuanVideo 是目前开源模型中参数量最大的文生视频模型,拥有 130 亿参数,能够生成具有高物理准确性和场景一致性的视频内容,为用户提供超写实的视觉体验,并能够在真实与虚拟风格之间自由转换。选择「NVIDIA A100」以及「PyTorch」镜像,OpenBayes 平台上线了新的计费方式,大家可以按照需求选择「按量付费」或「包日/周/月」,点击「继续执行」。稍等片刻,待系统分配好资源

点击「Text to Video」,在「Enter Your Prompt」中输入生成视频的文本提示词,在「Enter Your Negative Prompt」中输入负面提示词,即不希望出现在视频中的元素。点击「Image to Video」,上传一张图片,在「Enter Your Prompt」中输入生成视频的文本提示词,在「Enter Your Negative Prompt」中输入负面提示

瞬悉 1.0(SpikingBrain-1.0)」核心功能特点在于通过模仿大脑神经元的工作机制,在处理超长序列任务时,能实现惊人的效率和速度提升,同时大幅降低能耗和数据需求。其最新发布的「瞬悉1.0(SpikingBrain-1.0)」类脑脉冲大模型,借鉴大脑神经元的工作机制,成功绕过了传统 Transformer 架构的能效瓶颈,为长序列处理这一业界难题提供了全新的解决方案。登录 OpenBay

新加坡国立大学 Show Lab 与字节跳动公司于 2025 年 4 月 25 日推出了 LiveCC 模型,这是一个专注于大规模流式语音转录的视频大语言模型项目,旨在通过创新的视频 - 自动语音识别(ASR)流式方法训练出首个具备实时评论能力的视频大语言模型。进入 Demo 页面后,首先上传一段视频,选择「Real-Time Commentary(实时字幕)」,按下回车开始运行。待系统分配好资源

想象一下,当语音模型不仅能听懂你的话,还能根据你所给出的例子进行举一反三,搞定全新的语音任务。小米最新推出的 MiMo-Audio-7B-Instruct 做到了这一点。这全都归功于它首次将大语言模型领域的「涌现」能力和「少样本学习」能力移植到了语音模型上。MiMo-Audio-7B-Instruct 基于创新预训练架构和上亿小时训练数据,打破了语音领域依赖大规模标注数据的瓶颈。在开源模型的语音智

LongCat-Video 基于 136 亿参数的视频生成大模型,同时支持文字转视频、图片转视频和视频续写,让创意能够持续往前推进。它不是只会做几秒炫酷短片,而是从训练阶段就融入了长时序逻辑,让光影不飘、角色不丢、剧情不突兀,几分钟的视频也能顺畅连贯。效率方面也非常能打:720p、30fps 的长视频几分钟即可生成,再配合强化学习不断提升文本对齐、画质与动作一致性,让开源模型也能拥有行业级竞争力。

OpenManus 是由 MetaGPT 团队于 2025 年 3 月推出的开源项目,旨在复刻 Manus 的核心功能,为用户提供无需邀请码、可本地化部署的智能体解决方案。Qwen3-32B 是 Qwen3 系列中的一款推理模型,拥有 32.8 亿参数量。在编程、数学及通用能力等基准测试中,其表现与其他顶级模型如 DeepSeek-R1、o1、o3-mini、Grok-3 和 Gemini-2.5








