logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

一份财报揭露 AI 存储与 GPU 服务器的 羁绊

当 SK 海力士 2025 财年第三季度财报出炉,一组数据瞬间引爆科技圈:营业收入 24.4489 万亿韩元(同比 + 39%)、营业利润 11.3834 万亿韩元(约 563.14 亿元人民币,同比 + 62%)、净利润 12.5975 万亿韩元(约 623.2 亿元人民币,同比 + 119%),营业利润率 47%、净利润率 52%,营业利润更是首次突破 10 万亿韩元。这不仅是 SK 海力士的

文章图片
#人工智能#大数据
爆火的 DeepSeek-OCR:开启大模型文本处理新纪元

近期,DeepSeek 团队开源的 DeepSeek-OCR 模型,在 AI 领域掀起热潮。该模型相关论文《DeepSeek-OCR:Contexts Optical Compression》一经发布,便引发业内广泛关注。在 Hugging Face 平台,其 3B 参数量的基础信息公开后,短时间内页面访问量激增,GitHub 上相关代码仓库的 star 数量快速上涨,成为众多开发者和研究者讨论的

文章图片
#人工智能#自然语言处理#神经网络 +4
英伟达 B20

采用新一代 Blackwell 架构,支持 PCIe 5.0 和 NVLink 5.0,但显存从 H20 的 96GB HBM3(带宽 4.0TB/s)缩水为 GDDR7(带宽 1.8TB/s),计算性能持平或略低于 H20(FP16 算力约 148TFLOPS)。主打大模型轻量推理、中小规模训练等场景。

文章图片
#机器学习#人工智能#自然语言处理 +2
炸了!NVIDIA 50亿抄底Intel:AI服务器格局大洗牌,谁要睡不着了?

昔日死敌,今日战友!”9 月 18 日半导体圈炸穿了 ——AI 巨头 NVIDIA 砸 50 亿美元入股 Intel,直接让后者股价盘前暴涨 30%,而 AMD、台积电股价应声下跌 4%、2%。要知道,这两家总部仅隔 8 公里的硅谷巨头,曾在 CPU、GPU 战场厮杀 20 年,如今突然 “拥抱”,到底藏着怎样的行业变局?普通人又能看懂哪些投资与技术信号?

文章图片
#人工智能
急速了解什么是GPU服务器

GPU服务器,简而言之,就是装有高性能GPU卡的服务器。这些GPU卡通常用于加速计算密集型任务,释放CPU的工作负荷,从而大幅提升应用程序的运行速度和数据处理效率。GPU服务器在处理大规模并行计算任务时表现出色,如视频编解码、深度学习、科学计算等。GPU服务器高性能计算:GPU具有大量的核心和高速内存带宽,能够并行处理大量数据,从而在高性能计算领域表现出色。例如,在深度学习领域,GPU能够加速神经

文章图片
#服务器#运维
2025年科研算力革命:8卡RTX 5090服务器如何重塑AI研究边界?

预装TensorFlow 2.15/PyTorch 2.3,支持CUDA 12.6与ROCm 6.0双生态,某高校团队实测显示,在AMD EPYC处理器上运行Hugging Face模型时,性能损耗低于7%。在蛋白质结构预测中,8卡RTX 5090集群将传统CPU集群的72小时计算压缩至4.2小时,显存占用优化后支持同时处理8个蛋白复合体。在FourCastNet气候预测中,NVMe SSD的12

文章图片
#服务器#人工智能#运维
2025年9月5090工作站、

在深度学习与大模型训练领域,,而显卡作为算力输出的核心硬件,其性能参数直接影响着训练任务的速度、稳定性与成本控制。对于企业与科研机构而言,选择一套适配自身需求且性价比优异的显卡及配套服务器方案,成为推动 AI 项目落地的关键前提。从当前市场主流显卡来看,此前广泛应用的而全新上市的 NVIDIA Geforce RTX 5090 凭借架构升级带来的性能飞跃、更优的能效比以及稳定的供货渠道,迅速成为深

文章图片
#服务器
DeepSeek 开源 6850 亿参数大模型上架

对比其他主流模型,如 GPT-4O 的上下文长度在常规应用场景下远不及 DeepSeek-V3.1-Base 的 128K ,这使得 DeepSeek-V3.1-Base 在处理长篇学术论文、大型项目代码库等长文本任务时具有明显优势,能够一次性理解和处理更完整的信息,而无需像其他模型那样进行繁琐的文本分段处理,大大提升了处理效率和结果的准确性。这模型用的是 Safetensors 格式存储,可能有

文章图片
#人工智能#语言模型
DeepSeek重塑产业生态:经济智能化跃迁的深度剖析与个体应对新策略

其预测模型助力半导体封测行业实现技术突破与成本降低,而国产AI芯片厂商通过与DeepSeek的协同优化,打破了西方技术的垄断,提升了技术竞争力。此外,DeepSeek的能源管理系统在新能源领域的应用,也显著提升了电网调度的效率与发电站的发电效率。DeepSeek的“高性能+低成本+开源”模式,打破了西方技术的垄断,为中小企业提供了平等的技术接入机会。此外,DeepSeek的开源生态吸引了全球开发者

文章图片
#人工智能#自然语言处理#大数据
科研级GPU选型指南:针对LLM推理的深度解析与精准匹配策略

这些模型的背后,离不开强大的计算能力支撑,而GPU作为核心硬件之一,扮演着至关重要的角色。NVIDIA作为GPU领域的领航者,推出了多款适用于不同场景的GPU产品,旨在满足从个人到大规模科研项目的LLM推理需求。然而,面对琳琅满目的GPU型号,如何精准选型,以确保性能、成本与扩展性的最佳平衡,成为了一个亟待解决的问题。在LLM推理的战场上,GPU的性能表现直接关乎任务的成败。针对不同规模的LLM推

文章图片
#人工智能
    共 26 条
  • 1
  • 2
  • 3
  • 请选择