logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

文献分享 | RoboBrain 2.0:迈向通用具身智能体的新突破

北京智源研究院团队推出RoboBrain2.0多模态大模型,致力于解决数字智能向物理智能转化的三大瓶颈:空间理解、时间建模和推理链条问题。该模型采用模块化架构,支持多模态输入,通过三阶段训练策略逐步提升具身能力。在空间推理和时间建模任务中表现优异,超越GPT-4o等主流模型。未来将重点发展视觉-语言-动作框架和机器人平台集成,推动具身AI生态建设。

文章图片
#人工智能
SAM3 震撼来袭!手把手教你在 BitaHub 部署“语义级”智能隐私护盾

在 BitaHub 高性能算力的加持下,原本需要数小时手动处理的视频打码任务,现在只需几分钟即可自动化完成。在数字化生存的今天,无论是分享生活瞬间还是发布专业视频,隐私保护已成为不可忽视的环节。),模型便能够自动理解语义并精准定位对应区域,最终完成隐私区域的自动打码,实现真正的“文本驱动式”隐私保护。:代码自动检测 CUDA 环境,确保在 BitaHub 的 GPU 节点上运行,大幅提升视频帧的处

#人工智能
基于 LTX-2 模型的文生视频工作流部署指南

在本期教程中,我们系统走通了 LTX-2 模型的部署流程与 ComfyUI 自定义节点的安装配置,完整搭建了一套高效稳定的文生视频工作流。从基础扩散采样到二阶段高清增强,再到最终视频产出,每一个环节都进行了深入拆解,旨在帮助你全面理解并掌握 AI 视频生成的核心技术路径。同时也强烈推荐大家使用BitaHub 算力平台。在这里,你可以依托强大的算力资源,第一时间体验前沿视频生成模型,大幅缩短 AI

#音视频
AI 也能按设计规范出图?Qwen-Image-2512 本地海报生成实战

通过这段实战代码,我们不仅仅搭建了一个工具,更是实现了一次“设计工业化”的微型实验。Qwen-Image-2512 的本地部署不仅保障了数据隐私,更利用其强大的文字渲染优势,解决了 AI 绘画“不识字”的历史痛点。AI 的角色在这里发生了转变:它不再是取代设计师,而是将设计师从重复的排版、改字、对齐等繁琐劳动中解放出来,让设计回归到创意与策略本身。

#人工智能#设计规范
6B 也能打!Z-Image-Turbo 部署指南:速度、质量双在线

通过本次教程,我们在 BitaHub 上完成了 Z-Image-Turbo 的完整部署流程,并了解了其核心架构、关键权重文件及模型在轻量化扩散领域的优势。得益于 S3-DiT 单流结构和高效推理设计,Z-Image-Turbo 在仅 6B 参数下依旧具备接近大模型的生成质量,同时显存需求友好、响应速度快,十分适合作为科研实验与工程应用的基础模型。进入 BitaHub 官方网站模型库,搜索:Z-Im

文章图片
#AIGC
6B 也能打!Z-Image-Turbo 部署指南:速度、质量双在线

通过本次教程,我们在 BitaHub 上完成了 Z-Image-Turbo 的完整部署流程,并了解了其核心架构、关键权重文件及模型在轻量化扩散领域的优势。得益于 S3-DiT 单流结构和高效推理设计,Z-Image-Turbo 在仅 6B 参数下依旧具备接近大模型的生成质量,同时显存需求友好、响应速度快,十分适合作为科研实验与工程应用的基础模型。进入 BitaHub 官方网站模型库,搜索:Z-Im

文章图片
#AIGC
Qwen3-TTS 深度实测:在 BitaHub 快速搭建千问最新语音大模型

— 精品音色一键即用选择。内置 9 种精品音色(如 Vivian 等),覆盖全年龄段。双轨架构支持秒级导出音频,适合长文本。从环境配置的“基建”到三大实战模块的“精修”,我们已经在BitaHub上完成了Qwen3-TTS的完整部署。这套工作流不仅展示了通义千问在语音领域深厚的技术底蕴,更为每一位创作者提供了将“想象”转化为“听觉”的强大工具。Qwen3-TTS 的发布,标志着 AI 语音正式进入了

#人工智能#AIGC
基于 swift 在BitaHub平台微调Llama3大模型

Meta 在 2024 年发布的 Llama3 模型,作为 Llama 系列的成员之一,不仅在对话连贯性、知识准确性、多语言能力和复杂指令理解等方面取得了显著进展,还极大地优化了模型推理效率与部署适配性,使其成为当前开源 LLM 中的佼佼者。本教程将围绕 Llama3 模型,在 BitaHub 平台上,使用 swift 工具库,通过 OpenO1-SFT 数据集演示完整的微调过程,涵盖任务创建、训

#swift#开发语言
AI 自动写商品文案!LLaMA Vision 微调全流程实战

首先,从镜像地址拉取预训练模型(https://hf-mirror.com/unsloth/Llama-3.2-11B-Vision-Instruct)和数据集(https://hf-mirror.com/datasets/philschmid/amazon-product-descriptions-vlm)至本地,并将其挂载到 BitaHub 工作台的文件存储中。将模型设置为训练模式,并初始化一

#LoRA
在 BitaHub 部署 FaceFusion:快速搭建你的 AI 换脸系统

本文将带你基于 BitaHub 平台快速部署 FaceFusion,实现从环境构建、模型运行到网页访问的一站式解决方案,即便是零经验的小白也能轻松搭建属于自己的 AI 换脸工作台。为了在 BitaHub 平台上通过浏览器访问 FaceFusion 的 Web 界面,我们需要对项目中的启动代码做一个小修改:将默认的本地访问地址 localhost 改为监听全部地址的 0.0.0.0,并设置为平台允许

#AIGC
    共 28 条
  • 1
  • 2
  • 3
  • 请选择