logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Claude Opus 4.6 上线 DigitalOcean:百万上下文,一键调用

2025 年,DigitalOcean 云平台上线了 Serverless Inference。DigitalOcean Serverless Inference 是一种托管式的大模型推理服务。你不需要创建 GPU 实例、不用部署模型、不用关心扩缩容,只要通过 API 调用模型,DigitalOcean 就会在后台自动完成推理资源的调度与运行。

#人工智能#大数据#AIGC
10分钟,教你在云服务器部署 Moltbot/Clawdbot

这是一篇在云服务器上部署和配置AI助手Moltbot/Clawdbot的详细教程。

文章图片
#人工智能
AI 下半场:Agent 成分水岭,如何选对 GPU 算力攻克推理成本死穴?

前不久,在 AGI‑Next 峰会上,一场持续三个半小时、围绕技术路径与产业走向的高密度讨论,被业内称为“中国 AI 半壁江山聚首”的会议。91 岁的张钹院士、加拿大皇家学院院士杨强坐镇现场,智谱 AI 唐杰、月之暗面杨植麟、阿里通义千问林俊旸、腾讯姚顺雨四位头部 AI 企业的核心技术负责人罕见同台。讨论的核心并不在于“谁的模型参数更大”,而是集中在三个问题上:中美 AI 技术竞争将如何演化?下一

#人工智能#大数据#深度学习 +1
巧用 MCP 服务器,让你几分钟从 Prompt 到应用部署

MCP 是 Model Context Protocol(模型上下文协议)的缩写。它是一种让基于大语言模型(LLM)的工具(如 Claude 或 Cursor)能够安全地与外部服务通信并执行实际操作的方法。LLM 擅长处理“文字”——它可以总结、解释、改写文本。但如果没有帮助,它自己是无法“做事”的。比如它不能自动帮你部署应用、查询数据库,或者回滚失败的版本。而 MCP 就是这个“帮助”。它是一个

文章图片
#服务器#运维
Mistral 3 模型解析与部署实战:从 Large 3 到 Mini-stral

本文系统介绍 Mistral 3 开源模型家族,解析 Large 3 与 Mini-stral 的能力差异、硬件需求与适用场景,并演示在 DigitalOcean GPU 上的实际部署流程,帮助开发者低成本落地大模型应用。

文章图片
#AI#人工智能#开源 +1
如何在NVIDIA H100 GPU上用Ollama以最高性能运行大语言模型

Ollama 提供了一种方式,可以从其庞大的语言模型库中下载大型语言模型,该库包括 Llama3.1、Mistral、Code Llama、Gemma 等。Ollama 将模型权重、配置和数据整合到一个由 Modelfile 指定的包中。Ollama 提供了一个灵活的平台,用于创建、导入和使用自定义或现有语言模型,非常适合创建聊天机器人、文本摘要等应用。它强调隐私,可与 Windows、macOS

#语言模型#人工智能#自然语言处理
DeepSeek不同版本私有化部署成本对比:企业如何选择最优方案?

另外,还需要注意的是,目前高端的 NVIDIA 显卡在国内都是很难买到的,多数企业会通过香港公司或新加坡公司在海外购置,所以显卡的价格浮动很大。而且自建集群还需要考虑后续的维护成本与人力成本,这些都是隐藏在背后的“成本巨坑”,自建集群的企业要留有充足的资金来应对。从2024年的V2到2025年的R1,模型参数从670亿跃升至6710亿,但通过混合专家架构(MoE)与算法优化,训练成本反而降至同类模

文章图片
#人工智能
海外云 AWS、GCP、Azure 与 DigitalOcean 的核心区别有哪些?

深度对比 AWS、Azure、GCP 与 DigitalOcean 的性能、带宽成本及 AI 算力差异,为中国出海企业技术负责人提供专业、务实的云服务选型指南。

#aws#azure#云计算 +1
基于AI Agent模板:快速生成 SQL 测试数据

Gradient AI 平台是 DigitalOcean 提供的一个一体化 AI 云服务平台,覆盖从生成式模型调用、智能 Agent 构建、GPU 服务器(如 H200、H100、RTX 6000 等按需/裸金属)、到 Serverless 推理服务的完整流程。Agent Templates 是在​​ 平台上构建的、以代码为核心的即插即用入门套件。每个模板都是一个 Python 项目,你可以在几分

#人工智能#sql#python
    共 87 条
  • 1
  • 2
  • 3
  • 9
  • 请选择