logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

网络安全云计算

可提供的服务

暂无可提供的服务

简单测试一下DeepSeek和QwQ检索知识库的能力

我们前面介绍了如何本地部署DeepSeek-R1模型(帮你省20块!仅需2条命令即可通过Ollama本地部署DeepSeek-R1模型),也对比了不同硬件规格下能支持的模型情况(目前来看,ollama量化过的DeepSeek模型应该就是最具性价比的选择),对一些模型的能力也做了简单测试(一道四年级数学题,DeepSeek-R1的32b以下模型全军覆没,视频为证!)。但是,大家用到了本地部署,应该都

#网络#服务器#linux +1
告别高价SaaS!我用这款国产AI编程神器,零元自建n8n工作流系统

我想让你在当前这台全新的服务器上,使用n8n工具搭建一套自动化工作流,自动获取我所有的文章列表,整理成一个文章列表页面,并按照阅读量降序排列,点击文章名称可以跳转到文章页面;这么看来,国产大模型GLM确实不比国外的大模型差,并且通过和CodeBuddy进行整合,再加上一台Linux轻量应用云主机,搞个简单的业务系统轻轻松松就能上线。眼下,工作流(Workflow)自动化正火,就是将一些重复任务分解

#github
一道四年级数学题,DeepSeek-R1的32b以下模型全军覆没,视频为证!

我们前面介绍了DeepSeek的本地安装(离线文件分享了,快来抄作业,本地部署一个DeepSeek个人小助理),碰巧我还有一块Tesla P40的GPU(清华大模型ChatGLM3在本地Tesla P40上也运行起来了),显存大小是24 GB(23040 MB),理论上最高可以运行32b版本的模型。既然如此,那我们不妨测试一下1.5b、7b、8b、14b和32b这5个版本的运行效果。测试很简单,我

一个小游戏里的数学问题,难倒了所有的人工智能:ChatGPT、DeepSeek、豆包、通义千问、文心一言...

之前最火的人工智能是国外的ChatGPT(同一个问题,Gemini、ChatGPT、Copilot、通义千问和文心一言会怎么答?),但是在过年这段时间,没有谁能火的过国内的DeepSeek。最近也收到不少私信,问我用过DeepSeek没有,确实用了,从2024年12月份开始用的。当时用起来就被这个深度思考功能给打动了,但是呢,他当时有一个上下文理解的问题,一个是经常上下文不连贯,再就是动不动回答就

#人工智能
256台H100服务器的RoCEv2无损与全互联算力网络建设方案

今天,向大家分享一下这个算力中心的算力网络建设方案,已对关键业务数据做脱敏处理,并使用DeepSeek调整相关描述,仅保留技术架构内容。业务网、存储网、RoCEv2算力网和带外管理网,建设了一个有2048卡H100(80GB显存)的超级计算集群。)训练需求爆发的背景下,建设能够高效支撑万亿参数模型训练的算力基础设施已成为核心竞争力。本项目旨在部署一个由。服务器构成的超级计算集群,并通过构建一套高性

#服务器#网络#运维
真白嫖攻略:如何将免费的运营商云电脑,变成高性能远程开发/测试服务器?

总结一下,本文的核心就是曲线救国:通过搭建L2TP VPN隧道,将云电脑接入内网,再手动启用并修复其残缺的远程桌面服务,最终实现用系统自带的远程桌面流畅连接。问了一下Gemini,说这是云电脑客户端的通病,有些厂商基于HDP协议的客户端优化做的极差,严重消耗本地GPU进行编解码,最彻底的办法就是完全弃用官方客户端,使用Windows原生的远程桌面连接。云桌面的Windows系统是魔改过的,即使启用

#服务器#运维
256台H100服务器算力中心的带外管理网络建设方案

带外网络是集群的“最后生命线”,其核心使命是:当业务网络、操作系统乃至硬件出现严重故障时,运维人员仍能通过独立的物理通道对服务器进行。:基于DHCP发现与Ansible脚本,实现256个节点HDM配置的零接触下发与批量固化。:通过网络设备VRF技术与端口级安全策略,构建逻辑“气隙”,杜绝从业务侧发起的横向渗透。:提供从物理布线表、交换机CLI脚本到验收测试用例的全套工具,确保交付即用。电源控制、固

#服务器#运维
2048卡H100算力中心100G无阻塞存储网建设方案

为保障256台NVIDIA H100 GPU服务器集群的存储I/O性能,释放其顶级AI算力,特制定本存储网络建设实施方案。今天,向大家分享一下这个算力中心的存储网络建设方案,已对关键业务数据做脱敏处理,并使用DeepSeek调整相关描述,仅保留技术架构内容。业务网、存储网、RoCEv2算力网和带外管理网,建设了一个有2048卡H100(80GB显存)的超级计算集群。,以承载高并发、高吞吐的数据集加

注册四年,开发十天:一个“菜鸟”的程序梦,全靠腾讯云CodeBuddy圆了

国内版的是DeepSeek-V3-1-Terminus和GLM-4.6,其中GLM-4.6就像一个有脾气的大佬,虽然没有Credit限制,但总是报请求超限,用上一个多小时就让我歇息2小时,我估算了一下,大概是10000秒,倒是简单粗暴。工欲善其事,必先利其器。最开始的时候就是用Gemini-2.5-Pro,后来半道崩殂,只能切换到国内版本,总计历时8天,这才将一个功能相对完整的1.0.0版本拿到了

#腾讯云#云计算
将OpenWrt部署在x86服务器上

正文共:1234 字 40 图,预估阅读时间:2 分钟如果你问ChatGPT有哪些开源的SD-WAN方案,他会这样答复你:我们看到,OpenWrt也属于比较知名的开源SD-WAN解决方案。当然,在很久之前,我就发过几篇和OpenWrt相关的文章(软路由是啥?OpenWrt又是啥?长啥样?在VMware装一个瞅瞅、在ESXi上把OpenWrt变成真正的路由器)。包括我们公司,目前也有一些基于Open

    共 144 条
  • 1
  • 2
  • 3
  • 15
  • 请选择