
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
通过上一个实验,我们已经知道EVPN是一种二层VPN技术,控制平面采用MP-BGP通告EVPN路由信息,数据平面采用VXLAN封装方式转发报文。当租户的物理站点分散在不同位置时,EVPN可以基于已有的服务提供商或企业IP网络,为同一租户的相同子网提供二层互联;通过EVPN网关为同一租户的不同子网提供三层互联,并为其提供与外部网络的三层互联。EVPN不仅继承了MP-BGP和VXLAN的优势,还提供了

正文共:1314 字 11 图,预估阅读时间:3 分钟世人都言Python好,简单易学效率高。Python是一种简单易学,功能强大的编程语言,它有高效率的高层数据结构,简单而有效地实现了面向对象编程(使用Python脚本实现SSH登录设备)。其实,H3C Comware V7系统不仅内嵌了TCL解析器(TCL + 自动配置功能 = 设备自动上线),还内嵌了Python解释器,可以直接在设备上使用P
我们前面简单对比了DeepSeek 1.5B-32B的模型能力情况(一道四年级数学题,DeepSeek-R1的32b以下模型全军覆没,视频为证!),为什么会有这么大的差异呢?我最近又深入学习了一下。大概意思是说,大模型中的每一个参数就是一个数字,默认的存储精度一般是BF16或者是FP16,学过编程的都知道,FP16就是16位半精度浮点数,数据长度有16bit,也就是2字节。按照这个容量计算,7B(
我们前面已经在RTX4070的笔记本电脑上,按照《PyTorch深度学习指南》一书的操作,配置好了Jupyter Notebook(PyTorch深度学习指南之:如何用深度学习工具获得一台4070游戏本)。在此书的开端,关于环境部分,提示我们有三种方法来运行Jupyter Notebook,我们上次介绍的就是本地安装的方式,除此之外,还有谷歌Colab和Binder两种。但是,在后面的介绍中,作者
该说不说,DeepSeek还是挺好用的。虽然我们上次吐槽了一下人工智能模型的数学能力有待提高(一个小游戏里的数学问题,难倒了所有的人工智能:ChatGPT、DeepSeek、豆包、通义千问、文心一言),但经过我不懈努力,最终还是让DeepSeek把这道题答上来了。在他的回答里面,每行14种排列是正确的,但是在下面的结论处就飘了,成了64种。不过好在给出的代码还行,运行结果和通义千问、豆包的结果一致
正文共:1234 字 11 图,预估阅读时间:3 分钟前面我们已经分别介绍了ADVPN的两种组网结构:Hub-Spoke(ADVPN:Hub-Spoke类型组网实验)和Full-Mesh(ADVPN:Full-Mesh模型组网实验)。但是这两个案例和实际的应用场景多少存在一点差别,比如说并不是所有的企业都会拿出一台设备或者服务器来搭建独立的VAM服务器和AAA认证服务器,一般都是简化部署,能用一台
我们前面配置了飞塔防火墙FortiGate【站到站】模式的IPsec VPN(卷土重来!这次终于把FortiGate的IPsec VPN配置成功了!)。按照我们之间的配置方式,如果有多个站点需要互联,我们一般会采用将多个分支站点连接到一个总部站点的模式,分支站点之间互访的流量需要通过总部站点进行绕转,这种模式下的总部站点就是HUB站点,而分支站点就是SPOKE站点,对应的模型就是HUB-SPOKE
点击【开始】之后,我们开始配置LLM偏好,本次,我们选择【Local AI】,并在Local AI Base URL处填入http://192.168.1.222:8000/v1,这样系统就能自动识别到存在的模型,再从Chat Model Selection选择对应的模型就可以了。对应的,我们安装了显卡驱动的550.144.03版本,PyTorch的2.5.1版本,CUDA的12.4版本,cuDN
正文共:666 字 11 图,预估阅读时间:1 分钟跌跌撞撞,从Tesla M4终于走到了Tesla P40,显存从4 GB到8 GB,最后再到24 GB,真是不容易。回顾一下,Tesla M4是最早开始搞的,经历的磨难比较多,主要是不知道怎么把这款GPU设备用起来,从零开始摸索了很久(成了!Tesla M4+Windows 10+Anaconda+CUDA 11.8+cuDNN+Python 3
我们前面已经在RTX4070的笔记本电脑上,按照《PyTorch深度学习指南》一书的操作,配置好了Jupyter Notebook(PyTorch深度学习指南之:如何用深度学习工具获得一台4070游戏本)。在此书的开端,关于环境部分,提示我们有三种方法来运行Jupyter Notebook,我们上次介绍的就是本地安装的方式,除此之外,还有谷歌Colab和Binder两种。但是,在后面的介绍中,作者