logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

RTX 5090 32GB 与 RTX 4090 48GB 技术选型分析:架构、显存与生态权衡

企业对算力的需求,促进了算力平台的发展,天罡智算平台(https://www.tiangangaitp.com)就是其中的佼佼者:提供弹性GPU算力,灵活选择GPU类型和数量,按需动态使用,打破固定时长租期的束缚,只需为实际使用的资源付费。RTX 4090 所采用的 Ada Lovelace 架构与数据中心 H100/H200 属同一代技术,配备第四代 Tensor Core 和光流加速器,在 F

#网络
A800算力租赁价格六个月内下跌40%,FP8技术迭代加速GPU淘汰周期

企业对算力的需求,促进了算力平台的发展,天罡智算平台(https://www.tiangangaitp.com)就是其中的佼佼者:提供弹性GPU算力,灵活选择GPU类型和数量,按需动态使用,打破固定时长租期的束缚,只需为实际使用的资源付费。因此,淘汰包括A800、A100在内的不支持FP8的算力设备,已成为多数技术团队的共同选择。对目前仍持有H100/H800/H200等设备的资产方,可参考A80

#人工智能
昇腾的生态战略:通过开源CANN与CUDA兼容布局GPGPU市场

企业对算力的需求,促进了算力平台的发展,天罡智算平台(https://www.tiangangaitp.com)就是其中的佼佼者:提供弹性GPU算力,灵活选择GPU类型和数量,按需动态使用,打破固定时长租期的束缚,只需为实际使用的资源付费。据悉,2026年后规划的昇腾920(或称910D)将采用“矩阵 + 向量 + 线程 + CCU”复合架构,增强对稠密与稀疏张量运算、矩阵计算及高速通信的支持,从

#开源
稿件二:搭建AI产业落地的算力“高速路网”

在天罡智算的平台上,企业可以根据自身需求,灵活获取算力资源,无论是初创企业的小规模算力试用,还是大型企业的大规模算力部署,都能得到满足。天罡智算的创新模式,有效降低了企业使用算力的门槛和成本,加速了AI技术在各行业的落地应用。2025人工智能与智算发展论坛是一场汇聚智慧与创新的行业盛会,届时会有主题演讲、圆桌论坛、技术展示等丰富多样的活动形式,为参会者提供与行业大咖面对面交流的机会,共同探寻人工智

#人工智能
RTX 5090 vs RTX 4090 终极抉择指南:用原始数据终结选择困难

点击5090或4090卡的图片,在页面的右侧,会显示5090或4090卡的详情,当前支持按照卡时计费,根据实际使用量,先使用后付费。根据您的算力需求量,一个容器支持挂载1、2、4、8个5090或4090卡。在天罡智算的官网(https://tiangangaitp.com/gpu-market)完成注册和登录后,点击菜单“弹性GPU”,在弹性GPU的页面,就可以看到5090卡和4090卡。- 《G

#深度学习
RTX 5090 32GB 与 RTX 4090 48GB 技术选型分析:架构、显存与生态权衡

企业对算力的需求,促进了算力平台的发展,天罡智算平台(https://www.tiangangaitp.com)就是其中的佼佼者:提供弹性GPU算力,灵活选择GPU类型和数量,按需动态使用,打破固定时长租期的束缚,只需为实际使用的资源付费。RTX 4090 所采用的 Ada Lovelace 架构与数据中心 H100/H200 属同一代技术,配备第四代 Tensor Core 和光流加速器,在 F

#网络
《DeepSeek 开源接口深度解析:从 API 获取到客户端部署全流程教程》

的服务,我们把要提问的问题,传给云端的DeepSeek,然后等DeepSeek处理完成之后,把结果返回给我们。使用方式有2种:一种是通过客户端,以聊天的方式调用DeepSeek,另一种是通过API接口,以程序对接的方式,调用DeepSeek。除了通过客户端访问DeepSeek,对于软件开发者或者企业级客户,还可以通过DeepSeek的API,以程序调用的方式,对接使用DeepSeek。厂商迅速行动

#人工智能
报告下载丨华为:2025年鸿蒙智能体框架白皮书

该白皮书指出,全球数字技术智能化、泛在化变革之际,鸿蒙智能体是重大创新成果。它构建起 “以人为中心” 的操作系统新范式,借分布式架构与原子化服务,实现跨终端、场景的智能协同。通过开源 OpenHarmony,联合超 5000 家伙伴打造全球第三大智能终端生态圈,保障国家数字主权安全可控。其框架 HMAF 涵盖智能体全新交互,像系统级入口、小艺系统智能体入口等;升级智能体协议,定义交互规范;当下,超

#华为#harmonyos
发现个AI算力羊毛!新用户注册就送10小时4090,跑模型实测够香

学弟更夸张,之前用笔记本跑7B参数的对话模型,生成一段200字回答要等10秒,用4090跑直接压缩到1.5秒,连说“早知道有这好事,之前熬夜调参都能少掉点头发”。更省心的是环境配置——之前租其他平台的卡,光装PyTorch、CUDA驱动就折腾1小时,这次打开实例一看,常用的深度学习框架全预装好了,连StableDiffusion、LLaMA2的基础镜像都有,选好镜像开机就能跑代码,我学弟用它跑图像

#人工智能
拒绝 “动口不动手”!DeepSeek 接入 MCP 后能做这些骚操作

DeepSeek已经支持了MCP,今天这篇文章,我就给大家介绍一下,在Cherry Studio客户端里面使用MCP服务,让DeepSeek不但只会“动口”,而且也会“动手”。通过这些例子,可以发现,MCP的确可以让大模型调用各种工具,解决了大模型“只能动嘴不能动手”的难题,扩展了大模型的能力,让大家距离拥有一个贴身的全能AI助手又近了一步。在对话界面的下方,点击“MCP服务器”的图标,然后点击“

文章图片
#人工智能
    共 40 条
  • 1
  • 2
  • 3
  • 4
  • 请选择