logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【赞奇实测】4090涨疯了,32GB 5000 Ada 跑 DeepSeek 32B FP16 并发测试

DeepSeek R1 32B的企业私有化部署场景,推荐 4卡 RTX 5000 Ada 机型,性能和成本效益方面表现出色,满足企业级应用的高并发需求。

文章图片
#人工智能
DGX Spark 成功搭载首批企业知识库应用,可随身携带的 AI 助手

该智能体依托 Qwen3 基础大模型研发构建,且内置 Qwen VL 视觉模型能力,使 DGX Spark 能够解析图像信息,以自然语言与用户交流图片内容,回答问题并执行逻辑推理,结合其。一体化多模态交互,集成视觉、语音与信息展示能力于统一的交互界面中,用户可在与形象自然互动的过程中,同步完成聆听讲解、观看图像等内容交互,实现高效整合的沟通流程。具备逼真的面部表情、口型、眼神及肢体动作,消除传统纯

文章图片
#人工智能#spark
H20 性能表现之 Qwen3-235B

来说,即使是压力最大的知识库应用或智能体应用,能达到50个并发用户的同时,保持较好的用户体验,应该说性价比远超 DeepSeek V3 了。顾名思义,235B总参数达到235B,同样,只能在H20或A100这样的机器上才能运行。,这也是阿里这阵子发布的杆把子模型了,其 benchmark 表现超过了 DeepSeek 及 Kimi K2。(以下称480B),今天,我为大家继续带来新的评测,这次,介

文章图片
#人工智能
DGX Spark 双机互连实测 Qwen3-235B 模型

前段时间我们使用单台 DGX Spark 测试了模型性能。今天,我们通过一根 200 Gbps 带宽的 QSFP 线缆,看看性能如何。整体测试下来,单用户生成速度为,但预填充速度还不错,单用户可达。

文章图片
#人工智能#大数据
DeepSeek 满血版 8卡 H20 141GB 并发压力测试,体验极致性能!

近期我们针对 DeepSeek 满血版 671B 进行了并发性能的测试,搭载的是 8张 NVIDIA H20(单卡显存141GB)的服务器,我们来看看测试结果。

文章图片
#压力测试#人工智能
【首发】DGX Spark 三机互连跑 Qwen3-235B-A22B-FP8!

往期我们测试了台运行模型,近期我们的技术伙伴测试了台集群运行模型,现在来为大家带来第一手的实测性能分析。

文章图片
#spark#大数据#分布式
NVIDIA DGX Spark 实测首发!桌面机运行 GPT 原生模型的最佳选择来了!

后续我们还会有 NVIDIA NIM 测试、2台 DGX Spark 互连实测以及多模态、文生图测试,关注赞奇,敬请期待!模型进行了测试,让我们来看看它的性能表现。,赶紧让技术的小伙伴对。

文章图片
#人工智能#大数据#深度学习
在 DGX Spark 上使用 Ollama 打开 WebUI

本期我们将展示如何在 DGX Spark 设备上部署集成 Ollama 服务器的 Open WebUI,然后通过本地浏览器访问 Web 界面,同时模型在 DGX Spark 上运行。应用数据会存储在 open-webui 卷中,模型数据存储在 open-webui-ollama 卷中。如果看到权限被拒绝错误(例如尝试连接到 Docker 守护程序套接字时出现权限被拒绝的错误),就把用户添加到 do

文章图片
#spark#大数据#分布式
DGX Spark+ComfyUI 安装使用一步到位!

上期我们讲解了如何在该平台部署 Isaac Sim,本期我们将着手搭建本地 ComfyUI 工作流。无需上云,在本地即可完成所有图像的编辑和生成。预期输出应显示 Python 3.8+、可用的 pip、CUDA 工具包和 GPU 检测。安装 ComfyUI 运行所需的 Python 包。这一步会安装好所有必要的依赖项,包括。我们使用 DGX Spark 进行了 ComfyUI 的文生图测试,分辨率

文章图片
#spark#大数据#分布式 +1
告别「文生图」显存焦虑

Flux 模型今年发布之后,带来了文生图的一次升级,图像生成的质量效果飞跃提升。但 Flux 对显存提出了要求。Flux.1 拥有高达12B的训练参数。FLUX.1 [dev] 和 FLUX.1 [schnell]两个版本官方原配模型大小为 23.8GB,需要至少 24GB 的显卡才能顺利运行。不过得益于FP8的支持,经过优化之后模型体积可缩减至 11.9GB,不过跑起来也至少需要 16GB 显存

文章图片
#AIGC#人工智能#深度学习
    共 24 条
  • 1
  • 2
  • 3
  • 请选择