
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
当状态变为「运行中」后,点击「API 地址」边上的跳转箭头,即可跳转至「Paints-Undo 一张图生成绘画全过程 Demo」的页面。近年来,AI 绘画发展迅猛,衍生出了超多有意思的玩法——文生图、图像修复/增强、风格变换/迁移等等,一句 prompt,一张参考图像,只需数秒即可获得生动且颇具艺术性的图片。从技术层面来看,AI 绘画是从文字语言出发的,前期训练过程中,模型学会了图像与文本之间的「

基于基础模型 Qwen3-30B-A3B-Thinking 进行系统化后训练得到,并以开源形式发布在 Hugging Face 等平台,其采用一系列后训练技巧,包括长上下文数据合成管线、面向长序列的稳定强化学习和记忆增强的超长上下文框架,在长上下文基准测试中表现更为优秀,同时,这些能力也迁移到了通用领域任务,包括数学推理、工具使用以及长对话一致性等。该模型以单张输入图像为条件,通过多阶段扩散与结构

模型无需重新训练底座模型,仅通过加载少量权重即可改善面部结构、肤质纹理与整体光影效果,在保持推理效率与显存占用的同时获得更自然的人像生成结果,适用于写真级人像生成与高质量人物图像创作。通过 vLLM 与 Open WebUI 的组合部署,可快速构建 OpenAI API 兼容的本地推理服务,在保证性能的同时降低部署复杂度,适用于企业私有化部署与内部智能助手系统。模型采用自回归语音生成架构与分层声码

模型无需重新训练底座模型,仅通过加载少量权重即可改善面部结构、肤质纹理与整体光影效果,在保持推理效率与显存占用的同时获得更自然的人像生成结果,适用于写真级人像生成与高质量人物图像创作。通过 vLLM 与 Open WebUI 的组合部署,可快速构建 OpenAI API 兼容的本地推理服务,在保证性能的同时降低部署复杂度,适用于企业私有化部署与内部智能助手系统。模型采用自回归语音生成架构与分层声码

20 个中文 LLM 开源数据集一键使用,送GPU算力

本教程主要为大家演示如何在 OpenBayes贝式计算平台创建算力容器。

随后,该研究团队还利用 LongWriter-6k,基于 GLM-4-9B 进行训练,得到了一个能够生成超过 10,000 字连贯文本的模型 LongWriter-glm4-9b,显著扩展了大型语言模型的输出潜力,在文学创作、新闻报道等实际应用中表现出极大的广泛性。近年来,大语言模型 (LLM) 在理解和生成复杂文本时展现出强大的能力,能够处理高达 100,000 个 tokens 的输入,但在生

3.选择「NVIDIA GeForce RTX 5090」以及「PyTorch」镜像,按照需求选择「按量付费」或「包日/周/月」,点击「继续执行」。进入 Demo 运行页面后,在文本框内输入相关文字描述,并上传图片以及音频,根据需求调整相关参数,点击「Generate Video」即可生成视频。然而,当前多数模型大多依赖单一模态输入。HuMo 提出「协同多模态条件生成」的理念,将文本、参考图像与音

本数据集基于 NWChem 高性能计算化学软件生成,涵盖生物分子、纳米结构与固态材料的量子及经典混合计算数据,包含基态与激发态性质,采用高斯基函数与平面波两种计算方法,具备从单节点到数千处理器的高并行扩展能力,并支持分子性质与相对论效应的分析。Wan2.2-Animate-14B 同时支持动作模仿和角色扮演两种模式,能基于表演者的视频,精确复制面部表情和动作,生成高度逼真的角色动画视频。此外,Mi

在图生视频任务中,LongCat-Video 在视觉质量上值得关注,得分领先 Wan2.2 等其他模型,表明其在生成画面质量方面的突出优势。在这一框架中,视频生成模型通过其生成过程,逐步压缩并学习几何、语义、物理等多种知识形态,将示例图片上传后,输入 Prompt,在「Advanced Options」中可以对生成视频的负面提示词、分辨率、生成过程的随机性起点等参数进行更多设置,以实现更理想的生成








