
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
带外网络是集群的“最后生命线”,其核心使命是:当业务网络、操作系统乃至硬件出现严重故障时,运维人员仍能通过独立的物理通道对服务器进行。:基于DHCP发现与Ansible脚本,实现256个节点HDM配置的零接触下发与批量固化。:通过网络设备VRF技术与端口级安全策略,构建逻辑“气隙”,杜绝从业务侧发起的横向渗透。:提供从物理布线表、交换机CLI脚本到验收测试用例的全套工具,确保交付即用。电源控制、固
为保障256台NVIDIA H100 GPU服务器集群的存储I/O性能,释放其顶级AI算力,特制定本存储网络建设实施方案。今天,向大家分享一下这个算力中心的存储网络建设方案,已对关键业务数据做脱敏处理,并使用DeepSeek调整相关描述,仅保留技术架构内容。业务网、存储网、RoCEv2算力网和带外管理网,建设了一个有2048卡H100(80GB显存)的超级计算集群。,以承载高并发、高吞吐的数据集加
国内版的是DeepSeek-V3-1-Terminus和GLM-4.6,其中GLM-4.6就像一个有脾气的大佬,虽然没有Credit限制,但总是报请求超限,用上一个多小时就让我歇息2小时,我估算了一下,大概是10000秒,倒是简单粗暴。工欲善其事,必先利其器。最开始的时候就是用Gemini-2.5-Pro,后来半道崩殂,只能切换到国内版本,总计历时8天,这才将一个功能相对完整的1.0.0版本拿到了
正文共:1234 字 40 图,预估阅读时间:2 分钟如果你问ChatGPT有哪些开源的SD-WAN方案,他会这样答复你:我们看到,OpenWrt也属于比较知名的开源SD-WAN解决方案。当然,在很久之前,我就发过几篇和OpenWrt相关的文章(软路由是啥?OpenWrt又是啥?长啥样?在VMware装一个瞅瞅、在ESXi上把OpenWrt变成真正的路由器)。包括我们公司,目前也有一些基于Open
虽然显存够大,但是架构版本是6.1的Pascal架构,不支持FP16,需要到7.0版本的Volta架构才支持,也就是到Tesla V100这一代;开始操作之前,先介绍一下软件版本信息:vLLM的当前最高版本为0.7.4,能支持的PyTorch最高版本为2.5.1,对应的CUDA版本最高为12.4,对应的操作系统为Ubuntu 22.04 LTS,显卡驱动为550.144.03。好了,到这里,vLL
而且,512 GB运行内存的Mac Studio也只要10万块,如果是NVIDIA的GPU,差不多要四五十万了,相比之下,Mac的性价比简直是四两拨千斤。接下来,我们还是在ollama官网查看DeepSeek-R1模型信息,发现使用ollama run deepseek-r1命令拉取模型时,默认使用的模型是INT4量化后的8B参数模型,而之前我记得是INT4量化后的7B参数模型,不知道是我记错了还
点击【开始】之后,我们开始配置LLM偏好,本次,我们选择【Local AI】,并在Local AI Base URL处填入http://192.168.1.222:8000/v1,这样系统就能自动识别到存在的模型,再从Chat Model Selection选择对应的模型就可以了。对应的,我们安装了显卡驱动的550.144.03版本,PyTorch的2.5.1版本,CUDA的12.4版本,cuDN
我们前面简单对比了DeepSeek 1.5B-32B的模型能力情况(一道四年级数学题,DeepSeek-R1的32b以下模型全军覆没,视频为证!),为什么会有这么大的差异呢?我最近又深入学习了一下。大概意思是说,大模型中的每一个参数就是一个数字,默认的存储精度一般是BF16或者是FP16,学过编程的都知道,FP16就是16位半精度浮点数,数据长度有16bit,也就是2字节。按照这个容量计算,7B(
Gemini 3是Google对标OpenAI稍早发布(11月12日)的GPT-5.1的重磅回应,不仅推出了Pro版本,还引入了新的深度思考(Deep Think)模式。好在他意识到了自己的错误,马上触发了更新机制,将最新的三皇争霸替换成了Gemini 3 Pro(Google)、GPT-5.1(OpenAI)和DeepSeek V3.2(深度求索)。并且,我还给了他一次扬名立万的机会,问他GPT
我们前面安装了华为研发的叼炸天的openEuler系统(openEuler操作系统难道是CentOS的换壳?),还做了几个简单测试(CentOS和OpenEuler转发性能对比),操作下来之后,我们竟然发现openEuler的网络性能要优于其他Linux系统(还得是华为,OpenEuler打流能到37 Gbps)。最近,我测试了一种新的跨境方案,打算再测试一下openEuler的加解密性能,没想到







