logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

王道数据结构精简笔记——单链表

/ 定义单链表结点类型(结点) ElemType data;// 每个结点存放一个数据元素(数据域) struct LNode * next;// 指针指向下一个结点(指针域) } LNode , * LinkList;// LinkList是指向结构体首地址的指针使用LinkList:强调这是一个单链表;使用LNode *:强调这是一个结点;

文章图片
#数据结构
Ubuntu server下使用Ollama+GPU+NVLink运行deepseek

本文将介绍:1.如何在Ubuntu Server上安装Ollama并运行deepseek-r1模型。(CPU运行)2.如何在Ubuntu server上安装nvidia驱动和CUDA。(GPU运行)3.如何使用显卡NVLink。(多GPU+NVLink运行)

文章图片
#ubuntu#语言模型#服务器
Ubuntu server下使用Ollama+GPU+NVLink运行deepseek

本文将介绍:1.如何在Ubuntu Server上安装Ollama并运行deepseek-r1模型。(CPU运行)2.如何在Ubuntu server上安装nvidia驱动和CUDA。(GPU运行)3.如何使用显卡NVLink。(多GPU+NVLink运行)

文章图片
#ubuntu#语言模型#服务器
AI大模型应用现状与落地方案:从产品体验到技术路径的深度解析

主要介绍了国内外主流 AI 大模型的发展现状及其应用落地方式。作者将国内模型分为两大梯队:第一梯队包括通义千问、火山豆包、kimi,分别以学习委员、文娱委员、班长类比其特点;第二梯队包括 deepseek、智谱清言和腾讯元宝。AI 在生产场景中已能在客服、翻译、文稿编写等任务中大幅减轻人工工作,但实现落地的关键在于“上下文”信息的获取与利用。为解决生产环境中上下文过长或输入不便的问题,文章提出两种

#人工智能#语言模型
Ubuntu server下使用Ollama+GPU+NVLink运行deepseek

本文将介绍:1.如何在Ubuntu Server上安装Ollama并运行deepseek-r1模型。(CPU运行)2.如何在Ubuntu server上安装nvidia驱动和CUDA。(GPU运行)3.如何使用显卡NVLink。(多GPU+NVLink运行)

文章图片
#ubuntu#语言模型#服务器
Ubuntu server下使用Ollama+GPU+NVLink运行deepseek

本文将介绍:1.如何在Ubuntu Server上安装Ollama并运行deepseek-r1模型。(CPU运行)2.如何在Ubuntu server上安装nvidia驱动和CUDA。(GPU运行)3.如何使用显卡NVLink。(多GPU+NVLink运行)

文章图片
#ubuntu#语言模型#服务器
到底了